Los errores que ha cometido la IA con sus respuestas obligó a Google a revisar su modelo y limitar el número de consultas a través de esta herramienta
Google tuvo que limitar el uso de su IA luego de que recientemente se conocieran los graves errores que viene cometiendo al darle respuestas a los usuarios.
Los reportes dan cuenta que esta inteligencia artificial instalada en su buscador llegó a recomendarle a unos usuarios poner pegamento en el relleno de una pizza y hasta comer rocas porque son una “fuente de minerales y vitaminas”.
Pero eso no fue todo, la IA llegó a decir que los astronautas han “encontrado” o “desplegado” gatos en la Luna y los han cuidado.
Los constantes errores del buscador se conocen luego de que la compañía estrenara los resúmenes de AI Overview en mayo.
Fue así como Google decidió reducir el volúmen de resúmenes que genera su IA mientras trata de solucionar estos problemas.
Además le agradeció a los usuarios los reportes que hacen ya que les permite corregir el modelo.
Google AI overview suggests adding glue to get cheese to stick to pizza, and it turns out the source is an 11 year old Reddit comment from user F*cksmith 😂 pic.twitter.com/uDPAbsAKeO
— Peter Yang (@petergyang) May 23, 2024
Ver más:Google dice que su IA es capaz de pasar un examen para obtener un título como médico
Aprender de los errores en millones de consultas
Liz Reid, directora de Búsqueda de Google, dijo que es probable que aparezcan errores en medio de millones de consultas que se hacen diariamente.
Además, destacó que durante 25 años de experiencia saben cómo corregir para ofrecer la mejor experiencia a sus usuarios..
“Pudimos determinar patrones en los que no lo hicimos bien e hicimos más de una docena de mejoras técnicas a nuestros sistemas…Seguiremos mejorando cuándo y cómo mostramos descripciones generales de IA y fortaleciendo nuestras protecciones” dijo.
Esta nueva función viene provocando preocupación en varios sectores porque se cree que podría generar desinformación.
Lo cierto es que otras IA generativas como ChatGPT también cometen este tipo de errores y por eso no es recomendable confiar en todo lo que la herramienta dice y verificar siempre sus respuestas.
«Encontramos una infracción de la política de contenido en menos de una de cada 7 millones de consultas únicas en las que aparecían AI Overviews», dijo Google.
De esa forma, Google habría puesto límites a las consultas sin sentido que hacen los usuarios y ante los cuales la IA no debería arrojar resultados.
Aunque muchos se lo han tomado de forma satírica y humorística, se espera que este tipo de respuestas mejoren y sean cada vez más seguras.
Te puede interesar: