
IA de Microsoft genera imágenes violentas: ingeniero denuncia riesgos.
Públicamente, se habló de los riesgos de una herramienta de IA de la compañía que, según él, puede generar "verdaderos daños a nuestras comunidades".
Copilot Designer, un generador de imágenes a través de Inteligencia Artificial (IA) que, de acuerdo con Shane Jones, líder de IA en Microsoft, puede producir imágenes de tipo sexual, violentas e incluso asociar imágenes monstruosas con palabras como "aborto".
Jones, quien trabaja como gerente principal de ingeniería de software en la sede corporativa de Redmont, no es responsable directo de la herramienta, pero forma parte de un grupo denominado equipo rojo, conformado por empleados y personas externas y cuya tarea es probar la tecnología de inteligencia artificial de la compañía y detectar posibles errores.
Tras el hallazgo, Jones alertó a la empresa y, posteriormente, en su perfil de LinkedIn, publicó cartas abiertas.
"Fue un momento revelador; entonces me di cuenta por primera vez de que realmente no es un modelo seguro", dijo el ingeniero.
"No creo que tengamos que esperar a la regulación gubernamental para asegurarnos de que somos transparentes con los consumidores sobre los riesgos de la IA", señaló en una de ellas.
La denuncia de Jones ha generado un debate sobre la ética de la IA y la necesidad de una mayor transparencia en el desarrollo de estas herramientas.
Algunos expertos han argumentado que es necesario que las empresas sean más responsables a la hora de desarrollar y comercializar herramientas de IA, mientras que otros han pedido una mayor regulación para evitar que estas tecnologías se utilicen con fines dañinos.
Microsoft aún no ha emitido una declaración oficial sobre la denuncia de Jones.
Síguenos en Facebook y entérate de las noticias trend de la semana
No hay comentarios.:
Publicar un comentario