Microsoft desarrolla herramienta deepfake que reconoce multimedia manipulada - Imperio Noticias

>

Microsoft desarrolla herramienta deepfake que reconoce multimedia manipulada

Para reconocer multimedia manipulada por IA, Microsoft ya trabaja en el desarrollo de su herramienta deepfake



Con un uso cada vez mayor de la inteligencia artificial (IA) en imágenes y videos, el contenido falso conocido como ‘deepfake’ se ha vuelto muy común en Internet; a pesar de que una gran cantidad de contenido de este tipo ha sido creado con fines de entretenimiento, también existe contenido que busca convertirse en una fuente de información para confundir a las personas menos informadas.

La herramienta de Microsof treconoce contenido manipulado



- Con la intención de combatir la propagación de información errónea y noticias falsas por medio de imágenes y videos deepfake, Microsoft ha creado una herramienta que puede detectar imágenes y videos creados por IA.

La herramienta denominada Video Authenticator, ha sido desarrollada por la división de I + D de Microsoft, puede analizar tanto imágenes como videos y detectar si son falsos o reales gracias a que la herramienta estudia los videos y las imágenes y les da un porcentaje de probabilidad o puntuación de confianza.

-

- Según Microsoft, en caso de analizar videos, la herramienta proporcionará el porcentaje de probabilidad para cada fotograma del video en tiempo real, lo que la haría una herramienta única en su tipo; aunque la detección de medios manipulados por inteligancia artificial puede ser difícil, la compañía dice que la herramienta es capaz de detectar el límite de fusión de los elementos deepfake y los sutiles degradados o escala de grises que podrían no ser detectables por el ojo humano.

Video Authenticator fue desarrollada usando un conjunto de datos públicos de FaceForesnics ++, con los cuales se probaron en el conjunto de datos de desafío de detección DeepFake. Y según Microsoft, estos dos son los modelos líderes para entrenar y probar tecnologías de detección de deepfake.

Microsoft actualmete está colaborando con una Fundación de IA de San Francisco para distribuir la herramienta, la compañía, tiene como objetivo evitar la difusión de información errónea, especialmente antes de las elecciones estadounidenses.

IA

Por lo tanto, Video Authenticator en un principio estará disponible solo a través de RD2020 [Reality Defender 2020], que guiará a las organizaciones a través de las limitaciones y consideraciones éticas inherentes a cualquier tecnología de detección de deepfake, razón por la cual se distribuirá a los organizadores de campañas electorales y a los medios de comunicación que cubren noticias políticas.

Síguenos en Facebook y entérate de las noticias trend de la semana

-

No hay comentarios.:

Publicar un comentario


Ofertas especiales! Click aquí y revisa hoy el catalogo de productos trend en oferta mas vendidos por modelo y marca!