Google tuvo que limitar su IA debido a recomendaciones absurdas como comer piedras y usar pegamento en una pizza

Compartir en Facebook
Enlace Patrocinado

Los errores que ha cometido la IA de Google en sus respuestas han llevado a la empresa a revisar su modelo y limitar el número de consultas que se pueden realizar a través de esta herramienta.

Recientemente se conocieron graves errores cometidos por esta inteligencia artificial instalada en su buscador. Según los reportes, la IA llegó a recomendar a algunos usuarios poner pegamento en el relleno de una pizza y hasta comer rocas porque son una “fuente de minerales y vitaminas”.

Enlace Patrocinado

Pero eso no fue todo, la IA también afirmó que los astronautas han “encontrado” o “desplegado” gatos en la Luna y los han cuidado.

Estos errores constantes se hicieron evidentes luego de que la compañía lanzara los resúmenes de AI Overview en mayo.

Debido a estos problemas, Google decidió reducir el volumen de resúmenes generados por su IA mientras trabaja en solucionar estos inconvenientes. Además, agradeció a los usuarios por los reportes que envían, ya que les permiten corregir el modelo.

Liz Reid, directora de Búsqueda de Google, explicó que es probable que aparezcan errores en medio de millones de consultas que se realizan diariamente. Reid destacó que, con 25 años de experiencia, Google sabe cómo corregir y ofrecer la mejor experiencia a sus usuarios.

Pudimos determinar patrones en los que no lo hicimos bien e hicimos más de una docena de mejoras técnicas a nuestros sistemas…Seguiremos mejorando cuándo y cómo mostramos descripciones generales de IA y fortaleciendo nuestras protecciones” dijo.

Esta nueva función ha generado preocupación en varios sectores porque se teme que podría causar desinformación.

Lo cierto es que otras IA generativas como ChatGPT también cometen este tipo de errores, por lo que no es recomendable confiar ciegamente en todo lo que estas herramientas dicen y siempre verificar sus respuestas.

Encontramos una infracción de la política de contenido en menos de una de cada 7 millones de consultas únicas en las que aparecían AI Overviews», dijo Google.

De esta forma, Google habría puesto límites a las consultas sin sentido que hacen los usuarios y ante las cuales la IA no debería arrojar resultados.

Aunque muchos han tomado estos errores con humor y satíricamente, se espera que este tipo de respuestas mejoren y sean cada vez más seguras.

Compartir en Facebook

kooo