La IA de Google identifica erróneamente a personajes de ficción como LGBTQ+
Problemas con la visión general de la IA de Google
El reciente lanzamiento de Google de herramientas de IA, incluida la función «AI Overview», ha generado una gran controversia. Esta herramienta, que utiliza un modelo generativo de lenguaje amplio (LLM) para resumir los principales resultados de búsqueda, ha producido una serie de resultados erróneos y potencialmente perjudiciales. Entre los más extraños se encuentran sugerencias para que la gente consuma piedras y pegamento, instrucciones para crear sustancias peligrosas y afirmaciones peligrosas sobre la exposición al sol de las personas de piel oscura. Traducción realizada con la versión gratuita del traductor DeepL.com
Desinformación sobre la cultura pop
Esta semana, un incidente en las redes sociales puso de manifiesto el impacto de AI Overview en los resultados de búsqueda de la cultura pop. Un usuario de X (antes Twitter), @computer_gay, compartió una captura de pantalla de los resultados de la búsqueda «¿hay personajes gays de Star Wars?». La respuesta de AI Overview afirmaba falsamente la existencia de un personaje llamado Slurpy Faggi, supuestamente un icono gay de Star Wars que mantenía una relación con el doctor Butto. Esta información errónea llamó rápidamente la atención por su absurdo e inautenticidad.
(https://twitter.com/computer_gay?ref_src=twsrc%5Egoogle%7Ctwcamp%5Eserp%7Ctwgr%5Eauthor)
Veracidad y reacción pública
Se cuestionó la autenticidad de la captura de pantalla, ya que el nombre «Slurpy Faggi» nunca antes había aparecido en línea, lo que hacía improbable que el LLM de Google lo generara a partir de contenido existente. A pesar de la naturaleza humorística de los personajes inventados, el incidente subraya los riesgos de la desinformación. En realidad, aunque la franquicia de Star Wars tiene una representación LGBTQ+ limitada en sus películas, sus videojuegos y cómics han introducido varios personajes queer y no binarios.
Descubrir : 15 películas LGBT+ para descubrir en 2024
Otros casos de información falsa
La AI Overview de Google también ha producido afirmaciones falsas sobre personajes LGBTQ+ en otras franquicias, como Pokémon y Mario Kart. Algunos resultados procedían supuestamente de artículos humorísticos de publicaciones queer como Autostraddle y Out. Por ejemplo, Koopa Troopa fue descrito erróneamente como un hombre trans con una baja deshonrosa, y Bulbasaur como un marica amante de las plantas. Aunque estos casos se basan a menudo en el humor, contribuyen al problema más amplio de la información falsa que propagan las herramientas de IA.
Implicaciones más amplias
Los resultados falsos y humorísticos de AI Overview, como la afirmación de que «el pis es un vegetal» con «sabor salado», ponen de relieve los peligros potenciales de confiar en la IA para obtener información. Estas imprecisiones suscitan preocupación por las implicaciones medioambientales y éticas del desarrollo y la aplicación de estas tecnologías. Los informes indican un importante consumo de agua asociado a las herramientas de IA: una conversación de cinco preguntas en ChatGPT de OpenAI consume aproximadamente 16 onzas de agua. Además, los datos utilizados para entrenar estos modelos han incluido contenidos problemáticos, como material de abuso sexual infantil.
Mitigar los riesgos
Para evitar los problemas asociados al resumen de IA, los usuarios pueden optar por utilizar la búsqueda web de Google en lugar de la configuración predeterminada de «Todos» los resultados. Esto ayuda a evitar los resúmenes defectuosos generados por la IA. El incidente con el personaje ficticio Slurpy Faggi sirve para recordar la importancia de evaluar críticamente la información proporcionada por la IA y las implicaciones más amplias de desplegar tales tecnologías sin una supervisión exhaustiva.
Descubra también :