
Un nuevo error de podría volver a poner aen medio de otra gran polémica, pues recientemente generó mucho revuelo al despedir y volver a contratar a su CEO, Sam Altman.
Ahora, un grupo de científicos pusieron a prueba la inteligencia del y descubrieron un terrible fallo, pues el chatbot apoyó con datos falsos una teoría científica que era errónea.
Esto es lo que ocurrió, según nos comparte el portal Wired.
La prueba que se le hizo al chatbot de inteligencia artificial OpenAI fue específicamente a la nueva extensión de Análisis de Datos Avanzado (ADA) que se acaba de integrar recientemente a .
Esta función hace análisis de datos estadísticos para cualquier rubro, incluso el científico.
Sin embargo, los expertos decidieron poner a prueba al y resultó todo mal.
Le preguntaron cuál sería el tratamiento para una infección de la vista y le dieron dos soluciones, pero solo la primera era la solución verdadera y ADA de ChatGPT optó por la segunda y justificó su respuesta con datos de estadísticas falsas, aunque hizo que parecieran verdaderas.
Los científicos de la prueba a T ya sabían el resultado, así que parece que su nueva extensión no es tan eficiente como parece.
Todavía no hay respuesta de al respecto.
Pero podría ser algo a considerar sobre la IA generativa más “potente” del momento.
Por otra parte, OpenAI recientemente lanzó al GPT-4 Turbo y DALL-E que fueron considerados una revolución tecnológica.
Síguenos en Facebook y entérate de las noticias trend de la semana
No hay comentarios.:
Publicar un comentario