
y se encuentran en una carrera por conseguir que sus nuevos chats con inteligencia artificial (“chatbots”), que llegarán al público próximamente, se popularicen tanto o más que sus buscadores, pero estas nuevas tecnologÃas llegan con nuevos riesgos para la ciberseguridad, como que se usen para crear estafas o construir programas malignos para hacer ciberataques.
Estos problemas también se ven en chatbots como el popular , creado por , tecnologÃa que también potencia el buscador de ,.
Satnam Narang, ingeniero sénior de investigación en la firma de ciberseguridad Tenable, explicó que los estafadores pueden ser unos de los grandes beneficiados por este tipo de tecnologÃa.
Los chatbots permiten crear textos en cualquier idioma en cuestión de segundos y con una gramática perfecta.
Según Narang, una de las maneras de identificar a estos estafadores es a través de las faltas gramaticales que cometen en los mensajes que envÃan a sus vÃctimas y que, si usan IA, podrán pasar más desapercibidos.
ChatGPT puede ayudar (a los estafadores) a crear plantillas muy bien diseñadas para correos electrónicos o crear perfiles de citas cuando intentan estafar a los usuarios en aplicaciones de citas.
Y cuando tengan una conversación (con la vÃctima) en tiempo real, los estafadores pueden pedirle a ChatGPT que les ayude a generar la respuesta que darÃa la persona por la que se intentan hacer pasar”, anota Narang.
Además, el experto señala que existen otros tipos de herramientas de inteligencia artificial, como -también de OpenAI- en la que los estafadores pueden crear fotografÃas de personas que no existen.
Otra de las cualidades de es que puede ayudar a piratas informáticos a crear programas malignos (o malware).
“Este malware no va a ser el más sofisticado ni el mejor diseñado, pero les da una comprensión básica de cómo pueden escribir softwares maliciosos basados en lenguajes especÃficos.
Asà que les da una ventaja en su proceso, ya que hasta ahora quien quisiera desarrollar softwares maliciosos tenÃa que aprender a programar, pero ahora el ChatGPT puede ayudarlos a acortar ese tiempo”, detalla Narang.
Tanto los chatbots dede OpenAI, como de y de Google, están diseñados cuidadosamente para evitar pronunciarse sobre una amplia gama de temas delicados -como racismo o seguridad- y respuestas ofensivas.
Por ejemplo, no responden a preguntas sobre Adolf Hitler, no aceptan comentar la palabra inglesa “nigger” (despectiva por “negro”) ni tampoco dan instrucciones de cómo construir una bomba.
No obstante, Narang explica que ya existe una versión “jailbreak” (liberada o modificada) de ChatGPT que se llama DAN, siglas de “Do Anything Now” (“Haz cualquier cosa ahora”) en la que no existen este tipo de barreras.
“Esto es más preocupante, porque ahora (un usuario) podrÃa pedirle al ChatGPT (sin lÃmites) que lo ayude a escribir ransomware (programa que toma el control del sistema o dispositivo que infecta y pide un rescate para devolver el control a su dueño).
Aunque aún no se sabe lo eficaz que podrÃa llegar a ser ese ransomware”, explica Narang.
El experto ve difÃcil que se puedan implantar reglas a nivel nacional o institucional para poner lÃmites a estas nuevas tecnologÃas o hacer que la gente no las use.
Para más información de tecnologÃa, da clic aquÃ.
.
SÃguenos en Facebook y entérate de las noticias trend de la semana
No hay comentarios.:
Publicar un comentario