Checkout
Cart: 0,00 - (0 items )

Google explica sus políticas en los que se refiere a Inteligencia Artificial




ia

Google ha explicado en un artículo cómo y cuando usará sus sistemas de inteligencia synthetic, y cuándo nunca será usada, manteniendo su antigua política de “no seamos malos”.

Indica que no pueden resolver todos los problemas, pero su potencial para mejorar nuestras vidas es profundo. Usan AI para hacer que los productos sean más útiles, desde el correo electrónico que es libre de unsolicited mail a un asistente digital con el que podemos hablar de forma pure, pero también ayuda a las personas a abordar problemas urgentes.

Estos son sus siete principales objetivos:

1. Ser bueno para la sociedad: atención médica, seguridad, energía, transporte, fabricación y entretenimiento. Tendrán en cuenta factores sociales y económicos, y analizarán riesgos y las desventajas previsibles.

2. Evitarán impactos injustos en las personas, particularmente aquellos relacionados con características sensibles tales como raza, etnia, género, nacionalidad, ingresos, orientación sexual, capacidad y creencias políticas o religiosas.

three. Será seguro: evitarán resultados no intencionales que creen riesgos de daño. En los casos apropiados, probaremos las tecnologías de inteligencia synthetic en entornos restringidos y supervisaremos su funcionamiento después de la implementación.

four. Será responsable ante las personas: brindarán oportunidades apropiadas para comentarios y explicaciones relevantes. Estarán sujetas a la dirección y al adjust humano apropiado.

5. Incorporarán principios de diseño de privacidad. Otorgarán la oportunidad de recibir avisos y consentimiento, alentando las arquitecturas con garantías de privacidad, transparencia y adjust de los datos.

6. Mantendrán excelencia científica: rigor intelectual, integridad y colaboración. Las herramientas de AI tienen el potencial de desbloquear nuevos ámbitos de investigación científica y conocimiento en dominios críticos como la biología, la química, la medicina y las ciencias ambientales. Aspiran a altos estándares de excelencia científica a medida que trabajan para progresar en el desarrollo de inteligencia synthetic.

7. Estarán disponible para usos que estén de acuerdo con estos principios. Limitarán las aplicaciones potencialmente dañinas o abusivas.

Por otro lado indican cuándo no usarán la Inteligencia Man made:

– En tecnologías que causen o puedan causar daño classic. Cuando exista un riesgo materials de daño, procederán solo cuando consideren que los beneficios superen sustancialmente los riesgos.

– En armas u otras tecnologías cuyo most essential propósito o implementación sea causar o facilitar directamente lesiones a las personas.

– En tecnologías que recopilen o usen información para la vigilancia que viole las normas internacionalmente aceptadas.

– En tecnologías cuyo propósito infrinja los principios ampliamente aceptados del derecho internacional y los derechos humanos.

El texto completo se encuentra en el weblog de Google, escrito por su CEO, Sundar Pichai.




Back to top