Google se metió en un gran problema que bien pudo haberse evitado. Un problema principalmente de comunicación al no saber explicar en qué consistía Project Maven, la polémica iniciativa para el Departamento de Defensa de Estados Unidos que buscaba desarrollar inteligencia artificial para drones militares. Esto desató una tremenda reacción negativa principalmente en Google, donde más de 4.000 empleados firmaron una petición para que la compañía abandonara dicho proyecto.
Google finalmente cedió ante la presión de sus empleados, y el mundo, ya que su imagen se vio severamente dañada y desencadenó una crisis de identidad generaliza en el interior de la compañía. Por lo que hace unos días confirmaron su decisión de no seguir adelante con el proyecto. Ante esto, ahora Google busca limpiar su imagen al establecer siete principios que regirán el uso de la inteligencia artificial en futuros proyectos y desarrollos.
Control de daños tras la polémica de Project Maven
Todo parece indicar que estos siete principios éticos se elaboraron para calmar la preocupación sobre el trabajo de Google en Project Maven. De aquí se desprenden reglas básicas pero también hay elementos que llaman mucho la atención:
"Queremos dejar claro que, si bien no estamos desarrollando IA para su uso en armas, continuaremos trabajando con gobiernos y militares en muchas otras áreas. Éstas incluyen ciberseguridad, capacitación, reclutamiento militar, atención médica para veteranos, así como búsqueda y rescate".
¿Qué significa esto? Que Google seguirá buscando contratos militares y gubernamentales, ya que se trata de sectores que ahora mismo están invirtiendo miles de millones de dólares en servicios en la nube, y Google obviamente no quiere quedarse fuera de este jugoso negocio.

Los siete mandamientos de la IA de Google
En la carta firmada por Sundar Pichai, CEO de Google, se menciona que se han establecido "estándares concretos", es decir, no se trata de conceptos teóricos o flexibles, los cuales "regirán de manera activa nuestra investigación y desarrollo de productos e influirán en nuestras decisiones de negocio".
A partir de ahora, Google asegura que evaluará los proyectos de inteligencia artificial en base en los siguientes objetivos:
Que sea socialmente benéfica. Google dice que tomará en cuenta una amplia gama de factores sociales y económicos, y procederá en los casos en los que crean en los beneficios, como en áreas de atención médica, seguridad, energía, transporte, manufactura, entretenimiento y otras más.
Evitar crear o reforzar un sesgo injusto. Como lo veíamos con 'Norman', en este punto la compañía asegura que trabajará para evitar "impactos injustos" en sus algoritmos, donde evitarán inyectar sesgo racial, sexual o político en la toma de decisiones automatizada.
Estar construida y probada para ser segura. Aquí mencionan que seguirán implementando estrictas prácticas de seguridad y protección para evitar resultados que generen daño. Asegurando que probarán las tecnologías de IA en entornos controlados y supervisarán su funcionamiento después de su implementación.
Ser responsable con las personas. "Nuestras tecnologías de IA estarán sujetas a la apropiada dirección y control humano". Es decir, una inteligencia artificial que siempre estará respaldada y bajo el control de un ser humano.
Incorporar principios de diseño de privacidad. A raíz del escándalo de Facebook, Google busca blindarse al asegurar que su IA respetará la privacidad de los datos que obtiene. Sin duda un punto importante al saber que Google usa IA en casi todos sus servicios, desde Gmail hasta Fotos y mucho más.
Mantener altos estándares de excelencia científica. Google sabe que la inteligencia artificial tiene el potencial de ayudar en nuevos ámbitos científicos y de investigación, por lo que se comprometen a apoyar la investigación abierta, el rigor intelectual, la integridad y la colaboración.
Estar disponible para usos que vayan de acuerdo con estos principios. Este punto envuelve a todos los anteriores y deja claro el error de Project Maven, ya que si algún proyecto va en contra de estos principios, simplemente no lo tomarán. Aquí Google especifica escenarios potencialmente dañinos o abusivos que serán evaluados de acuerdo a cuatro puntos: Propósito y uso principal, naturaleza y singularidad, escala y la naturaleza de la participación de Google.

Adicional a estos siete principios, Google garantiza que no diseñará o desplegará desarrollos en inteligencia artificial en las siguientes áreas:
- "Tecnologías que causan o pueden causar un daño general. Cuando exista un riesgo material de daño, procederemos sólo cuando consideremos que los beneficios superan sustancialmente los riesgos e incorporaremos las restricciones de seguridad apropiadas."
- "Armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar de manera directa lesiones a las personas."
- "Tecnologías que recopilan o usan información para la vigilancia que violan las normas internacionalmente aceptadas."
- "Tecnologías cuyo propósito infringe principios de derecho internacional ampliamente aceptados y derechos humanos."
Esta carta con principios éticos llega en un momento decisivo no sólo para Google, sino para una gran cantidad de compañías que están invirtiendo fuertes cantidades de dinero en desarrollos basados en inteligencia artificial.
Más información | Google
Ver 30 comentarios
30 comentarios
podenco
"Google promete no usarla en vigilancia"
Eso es lo mismo que decir que el monstruo de las galletas ha prometido no comer más galletas en su vida. De verdad la alguien se va a creer eso?
jesusramirez94
Me quedo con las leyes de Asimov!
kano01
Pues sintiendo mucho discrepar con el tono general de los comentarios, hay que sentirse orgulloso de lo q los trabajadores de google han conseguido.
En este momento en q los billones de inversión q genera la ia, google "intente" apartarse de la tecnología militar, tiene mérito. Ni microsoft, ni apple, ni amazon ... hacen ningún asco a generar sw e ias para entornos militares.
Este tipo de decisiones puede suponer el hundimiento definitivo de google. Perdió el carro de la web social y su negocio de publicidad cada vez está más tocad.
Desde hace mucho q se dice q google es el nuevo ms pq ha perdido el foco de la tecnología.
Obviamente si viene la nsa, o el gobierno y les obligan, tendrán q colaborar, pero por lo menos una declaración de intenciones de este tipo se agradece.
kinico
Señor Sundar Pichai, creo que usted está enfermo, dígame si padece alguno de estos síntomas.
¿Le está creciendo la nariz?
¿Su cuerpo se está convirtiendo en madera?
¿Su nombre está cambiando a Pinocho Mentiroso?
saltrue
Qué lejos queda ya aquel "Don't be evil"...
aya_mon
¿cuando dijeron la ultima mentira?
petergun
en serio? este es el meme mas largo que he visto
kawjones
Vale. Ya pueden dormir tranquilos y para más paz que recen un "jesusito de mi vida".
Un detallito: TODO, pero que absolutamente TODO puede ser usado como un arma de guerra.
El explosivo sirve para pulverizar una roca y abrir un tunel pero tambien para reventar piernas y de igual forma un osito de peluche es un cariñoso juguete, si le metes explosivo dentro es un método de sembrar el terror entre la población civil.
Si bien antes podia ser más sencillo (una pistola se ve claro para lo que está diseñada aunque la uses como pisapapeles) con la tecnologia actual las puertas giratorias, el trasvase de una (civil) a otra (militar) y viceversa es tán continuo y fluido que no sabes donde están las diferencias.
¿Si Pre-Google hubiera existido en los 60-70 no habria colaborado con los militares para el desarrollo de Internet que fue diseñado inicialmente como un sistema para asegurar comunicaciones tras un ataque? o ¿en el desarrollo del GPS?.
Tal vez estos principios le sirvan como marketing o para autojustificarse pero no nos olvidemos que si algo puede tener uso militar se usará si o si.
Un ejemplo obvio: Imaginemos que se desarrolla una IA para detectar con drones y tras una inundación, tsunami o huracán donde hay personas vulnerables (niños, mayores, heridos) para enviar de forma precisa los equipos de rescate. Todo el mundo consideraria que una IA muy util y social.
Pues la misma es un arma militar: los debiles y vulnerables son objetivos a descartar, el resto carne de misil, que será guiado gracias a un chip que se desarrolló para gestionar los gráficos de consola de videojuegos.
Asi que, metafóricamente hablando, google no desrrolará nuevos fusiles, esto es el resumen de sus principios, pero no tendrá reparos en desarrollar sistemas de guia, visión nocturna, cálculo de trayectorias y demás sistemas (obviamente con muchas ventajas civiles) que son los que hacen realmente efectivos los equipos militares.
elreydelpollofrito
Prometer hasta meter y, una vez metido, nada de lo prometido
sarpullido
IA te creo.
Zaxxon
Los fabricantes de metralletas y escopetas también prometen no usarlas para masacres en institutos.
sklt_1980
Creando nuestra propia destrucción
Shadowbroker
Es interesante cómo vinculan su ética a las normas internacionales. Dado que el contexto político cambia, en realidad no nos ofrecen garantía ninguna de que ante un cambio de corriente ellos no se laben las manos. Habrá que ver los criterios también que guían sus decisiones para clasificar un proyecto dañino o no.
Natlus
yo quiero una inteligencia artificial que me ayude a encontrar fotos por internet, que le de unas imágenes de referencia y me busque muchas imágenes de esa misma cosa por internet.
pillabichos
1.Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2.Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
3.Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Y la ley cero:
Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.
tecnoman
Y yo me lo creo...
Usuario desactivado
Seguro