Google reúne un panel externo para considerar los desafíos de AI

Hoy, en la conferencia EmTech Digital 2019 de MIT Technology Review, Google anunció que formó un grupo asesor externo, el Consejo Consultivo Externo de Tecnología Avanzada (ATEAC), encargado de “considerar algunos de los desafíos más complejos [en AI]”, incluido Reconocimiento facial y equidad en el aprendizaje automático. Se produce aproximadamente un año después de que la compañía Mountain View publicara una carta para guiar su uso y desarrollo de la IA, y meses después de que Google dijera que se abstendría de ofrecer API de reconocimiento facial para fines generales antes de abordar las cuestiones de política persistentes.

ATEAC, cuyo panel de ocho académicos, expertos en políticas y ejecutivos incluye a Luciano Floridi, un filósofo y experto en ética digital en la Universidad de Oxford; el ex secretario de estado de los Estados Unidos, William Joseph Burns; Dyan Gibbens, CEO del fabricante de aviones no tripulados Trumbull; y el profesor de tecnología de la información y políticas públicas de Heinz College, Alessandro Acquisti, entre otros, prestará servicios a lo largo de 2019 y celebrará cuatro reuniones a partir de abril. Se les alentará a compartir los “aprendizajes generalizables” que surjan de las discusiones, dice Google, y se publicará un informe resumido de sus hallazgos a finales de año.

“Reconocemos que el desarrollo responsable de la IA es un área amplia con muchas partes interesadas, [y] esperamos que este esfuerzo sirva de base para nuestro trabajo y para el sector tecnológico más amplio”, escribió el vicepresidente senior de asuntos globales de Google, Kent Walker, en una publicación de blog. . “Además de consultar con los expertos en ATEAC, continuaremos intercambiando ideas y recabando opiniones de socios y organizaciones de todo el mundo”.

Google presentó por primera vez sus siete Principios rectores de AI en junio, que hipotéticamente impiden que la empresa realice proyectos que (1) no son socialmente beneficiosos, (2) crean o refuerzan el sesgo, (3) no están diseñados y probados para garantizar la seguridad, ( 4) no son “responsables” ante las personas, (5) no incorporan principios de diseño de privacidad, (6) no respetan los estándares científicos, y (7) no están disponibles para usos que concuerden con todos los principios. Y en septiembre, dijo que se había establecido una estructura de revisión formal para evaluar nuevos “proyectos, productos y ofertas”, en virtud de la cual se habían completado más de 100 revisiones.

Google siempre ha tenido un equipo de revisión de ética de AI compuesto por investigadores, científicos sociales, especialistas en ética, especialistas en derechos humanos, asesores de políticas y privacidad, expertos legales y científicos sociales que manejan evaluaciones iniciales y “operaciones diarias”, y un segundo grupo de “expertos senior” de una “gama de disciplinas” en Alphabet, la empresa matriz de Google, que proporciona experiencia tecnológica, funcional y en aplicaciones. Otro consejo, formado por ejecutivos sénior, navega por “problemas complejos y difíciles”, incluidas las decisiones que afectan a las tecnologías de Google.

Pero esos grupos son internos, y Google ha enfrentado una cacofonía de críticas sobre sus recientes decisiones de negocios que involucran productos e investigación impulsados ​​por AI.

Surgieron informes de que este verano contribuyó con TensorFlow, su marco de AI de código abierto, mientras estaba bajo un contrato del Pentágono, el Proyecto Maven, que buscaba implementar el reconocimiento de objetos en drones militares. Se informó que Google también planeaba construir un sistema de vigilancia que hubiera permitido a los analistas y contratistas del Departamento de Defensa “hacer clic” en edificios, vehículos, personas, grandes multitudes y puntos de referencia y “ver todo lo relacionado con [ellos]”.

El Proyecto Maven instó a decenas de empleados a renunciar y a más de 4,000 otros a firmar una carta de oposición abierta.

Otros errores más pequeños incluyen no incluir traducciones tanto femeninas como masculinas para algunos idiomas en Google Translate, la herramienta de traducción de idiomas disponible gratuitamente de Google, y el despliegue de un clasificador de imágenes sesgado en Google Photos que erróneamente etiquetó a una pareja negra como “gorilas”.

Para ser justos, Google no es la única empresa que ha recibido críticas por las controvertidas aplicaciones de AI.

Este verano, Amazon sembró Rekognition, una tecnología de análisis de imagen basada en la nube disponible a través de su división de Servicios Web de Amazon, para la aplicación de la ley en Orlando, Florida y la Oficina del Sheriff del Condado de Washington, Oregon. En una prueba, cuya exactitud cuestiona Amazon, la American Civil Liberties Union demostró que Rekognition, cuando recibió 25,000 fotografías de una “fuente pública” y se encargó de compararlas con fotos oficiales de miembros del Congreso, identificó erróneamente a 28 como delincuentes.

Y en septiembre, un informe en The Intercept reveló que IBM trabajó con el Departamento de Policía de la Ciudad de Nueva York para desarrollar un sistema que permitiera a los funcionarios buscar personas por color de piel, color de cabello, género, edad y diversos rasgos faciales. Utilizando “miles” de fotografías de aproximadamente 50 cámaras proporcionadas por el NYPD, su IA aprendió a identificar el color de la ropa y otras características corporales.

Pero el anuncio de hoy, que quizás no sea por casualidad un día después de que Amazon dijera que destinaría $ 10 millones con t



Nuevo Horario Laboral

INFOTIC S.A se permite comunicar a sus Clientes, Proveedores y demás partes interesadas, que a partir del mes de febrero 2020 su Sede Administrativa atenderá al publico en el siguiente horario:

Lunes a Viernes de 7:00 a.m. a 4:30 p.m.