Los errores que ha cometido la IA de Google en sus respuestas han llevado a la empresa a revisar su modelo y limitar el número de consultas que se pueden realizar a través de esta herramienta.
Recientemente se conocieron graves errores cometidos por esta inteligencia artificial instalada en su buscador. Según los reportes, la IA llegó a recomendar a algunos usuarios poner pegamento en el relleno de una pizza y hasta comer rocas porque son una “fuente de minerales y vitaminas”.
Pero eso no fue todo, la IA también afirmó que los astronautas han “encontrado” o “desplegado” gatos en la Luna y los han cuidado.
Estos errores constantes se hicieron evidentes luego de que la compañía lanzara los resúmenes de AI Overview en mayo.
Debido a estos problemas, Google decidió reducir el volumen de resúmenes generados por su IA mientras trabaja en solucionar estos inconvenientes. Además, agradeció a los usuarios por los reportes que envían, ya que les permiten corregir el modelo.
Google AI overview suggests adding glue to get cheese to stick to pizza, and it turns out the source is an 11 year old Reddit comment from user F*cksmith 😂 pic.twitter.com/uDPAbsAKeO
— Peter Yang (@petergyang) May 23, 2024
Liz Reid, directora de Búsqueda de Google, explicó que es probable que aparezcan errores en medio de millones de consultas que se realizan diariamente. Reid destacó que, con 25 años de experiencia, Google sabe cómo corregir y ofrecer la mejor experiencia a sus usuarios.
Pudimos determinar patrones en los que no lo hicimos bien e hicimos más de una docena de mejoras técnicas a nuestros sistemas…Seguiremos mejorando cuándo y cómo mostramos descripciones generales de IA y fortaleciendo nuestras protecciones” dijo.
Esta nueva función ha generado preocupación en varios sectores porque se teme que podría causar desinformación.
Lo cierto es que otras IA generativas como ChatGPT también cometen este tipo de errores, por lo que no es recomendable confiar ciegamente en todo lo que estas herramientas dicen y siempre verificar sus respuestas.
Encontramos una infracción de la política de contenido en menos de una de cada 7 millones de consultas únicas en las que aparecían AI Overviews», dijo Google.
De esta forma, Google habría puesto límites a las consultas sin sentido que hacen los usuarios y ante las cuales la IA no debería arrojar resultados.
Aunque muchos han tomado estos errores con humor y satíricamente, se espera que este tipo de respuestas mejoren y sean cada vez más seguras.
kooo