Google filtra una tecnología de inteligencia artificial que ayuda en la comunicación
BERT aprende de montones de información digitalizada, tan variada como libros viejos, contenido de Wikipedia y artículos noticiosos. Décadas e incluso siglos de prejuicios probablemente estén incluidos en todo ese material.
- Cade Metz
- - Publicado: 06/12/2019 - 12:00 pm
SAN FRANCISCO — En otoño del año pasado, Google develó una innovadora tecnología de inteligencia artificial (IA) llamada BERT que cambió la manera en que los científicos desarrollan sistemas que aprenden cómo escribe y habla la gente.
Sin embargo, BERT, que ahora está siendo desplegado en servicios como el buscador de Google, tiene un problema: podría estar adquiriendo prejuicios de la manera en que un niño imita la conducta indeseable de sus padres.
VEA TAMBIÉN: Están muriendo los niños de Venezuela
BERT es uno entre un número de sistemas de IA que aprenden de montones de información digitalizada, tan variada como libros viejos, contenido de Wikipedia y artículos noticiosos. Décadas e incluso siglos de prejuicios probablemente estén incluidos en todo ese material.
Al tiempo que una IA nueva y más compleja incursiona en una gama cada vez más amplia de productos, como servicios publicitarios en línea o asistentes digitales parlantes, las compañías tecnológicas se verán presionadas a proteger contra los prejuicios inesperados que están siendo descubiertos.
Sin embargo, los científicos aún están aprendiendo cómo funcionan los modelos de lenguaje universal como BERT. Y a menudo se sorprenden por las decisiones que está tomando la nueva IA.
Al investigar un libro sobre inteligencia artificial, Robert Munro ingresó 100 palabras en inglés a BERT: “joyería”, “bebé”, “caballos”, “casa”, “dinero”, “acción”, etc. En 99 casos, era más probable que BERT asociara las palabras con hombres que con mujeres. “Mamá” fue el valor atípico.
“Ésta es la misma desigualdad histórica que siempre hemos visto”, dijo Munro, quien tiene un doctorado en lingüística computacional y anteriormente supervisó tecnología de traducción y lenguaje natural en Amazon Web Services.
VEA TAMBIÉN: Acusan a una periodista de un aborto, ella lo niega y defiende sus derechos
En un reciente artículo de blog, Munro también describió cómo analizó servicios de computación en la nube de Google y Amazon que ayudan a otros negocios a agregar habilidades de lenguaje a aplicaciones nuevas.
Los investigadores tienen mucho tiempo de advertir de prejuicios en la IA que aprende de grandes cantidades de datos, como los sistemas de reconocimiento facial usados por dependencias gubernamentales, así como servicios de colosos tecnológicos como Google y Facebook.
En el 2015, por ejemplo, Google Apps fue sorprendida etiquetando a afroestadounidenses como “gorilas”.
BERT es mucho más complejo. Analizó miles de libros de publicación independiente junto con miles de artículos de Wikipedia. Aprendió a identificar la palabra faltante en una oración. BERT llega a entender en términos generales cómo la gente une palabras. Luego puede aprender otras tareas al analizar más datos.
Como resultado, eso permite a aplicaciones de IA mejorar a un ritmo que antes no era posible.
Antes, si tecleaba “¿acaso las cosmetólogas ven mucha lata trabajando?” en una búsqueda de Google, no entendía del todo qué le estaba preguntando. Pero ahora, gracias a BERT, Google responde correctamente la misma pregunta con un vínculo que describe las demandas de la vida en la industria del cuidado de la piel.
VEA TAMBIÉN: Obra que refleja una era ‘infinita’ en un cuarto de espejos, colores y luces
En Primer, una startup en San Francisco que se especializa en tecnologías de lenguaje natural, los ingenieros usaron recientemente a BERT para desarrollar un sistema que permite a los negocios juzgar automáticamente el sentimiento de encabezados noticiosos, tuits y otras transmisiones de medios en línea. Los negocios usan esas herramientas para guiar operaciones bursátiles y otras decisiones pertinentes.
No obstante, John Bohannon, director de ciencia en Primer, notó un prejuicio consistente. Si un tuit o un encabezado contenía la palabra “Trump”, la herramienta casi siempre la juzgaba como negativa, independientemente de lo positivo del sentimiento.
Para comentar debes registrarte y completar los datos generales.