
Las preocupaciones sobre el impacto social negativo de los chatbots impulsados por inteligencia artificial y la prisa de las potencias tecnológicas de Silicon Valley por lanzarlos al mercado han llevado a funcionarios de la Casa Blanca a mostrar gran interés en una competición de tres días que concluyó este domingo en la conferencia de hackers DefCon en Las Vegas.
De acuerdo con la agencia internacional de noticias AP, más de 3,500 participantes han empleado laptops en un esfuerzo por identificar fallas en ocho modelos líderes de lenguaje a gran escala, representativos del próximo avance tecnológico.
Sin embargo, los resultados inmediatos no son esperados del primer "equipo rojo" independiente.
Se anticipa que los hallazgos se harán públicos aproximadamente en febrero.
Sin embargo, solucionar las deficiencias en estas construcciones digitales, cuyo funcionamiento interno es en gran parte incomprensible incluso para sus creadores, demandará un período extenso y una inversión de millones de dólares.
La investigación académica y corporativa ha revelado que los actuales modelos de inteligencia artificial son altamente complejos de gestionar, frágiles y susceptibles a manipulación.
La seguridad no fue una prioridad inicial durante su desarrollo, sino que fue incorporada en etapas posteriores a medida que los científicos de datos acumulaban vastas colecciones de imágenes y textos.
Gary McGraw, un veterano en ciberseguridad y co-fundador del Berryville Institute of Machine Learning, advirtió: "Es tentador creer que podemos agregar una capa de seguridad a estos sistemas después de su construcción, parcharlos para que sean más resistentes o incorporar dispositivos de seguridad adicionales, pero la realidad es más compleja".
Michael Sellitto de Anthropic, quien proporcionó uno de los modelos de inteligencia artificial en prueba, reconoció en una conferencia de prensa que comprender plenamente las capacidades y las vulnerabilidades de estos modelos es un campo de investigación en desarrollo.
A diferencia del software convencional que utiliza códigos definidos para emitir instrucciones específicas, modelos como de OpenAI y Bard de Google han sido entrenados en gran medida a través de la ingestión y clasificación de vastos volúmenes de datos de Internet.
Esta naturaleza en constante evolución plantea desafíos considerables para garantizar su seguridad y confiabilidad.
La industria de inteligencia artificial generativa ha tenido que enfrentar múltiples vulnerabilidades de seguridad desde su lanzamiento público el otoño pasado.
Los investigadores han demostrado que estos chatbots pueden ser engañados para etiquetar malware como seguro o incluso crear contenido dañino como correos electrónicos de phishing.
El informe final de la Comisión de Seguridad Nacional de Inteligencia Artificial de Estados Unidos en 2021 ya alertaba sobre ataques a sistemas de inteligencia artificial comerciales, señalando la insuficiente inversión en investigación y desarrollo en términos de seguridad.
También A medida que las amenazas evolucionan y se multiplican, los expertos advierten que la falta de regulación podría permitir que los problemas de seguridad pasen desapercibidos.
Las fallas en la lógica de inteligencia artificial pueden ser explotadas de maneras insospechadas por actores maliciosos.
La privacidad también está en riesgo, ya que los chatbots podrían ser utilizados para interactuar con sectores sensibles como la salud, las finanzas y el empleo, lo que podría exponer datos personales a ataques.
Los modelos de lenguaje de inteligencia artificialtambién pueden contaminarse por datos basura durante el proceso de reentrenamiento, lo que aumenta la preocupación sobre la confiabilidad de los resultados.
Aunque los principales actores de la industria han manifestado su compromiso con la seguridad y la transparencia, existen dudas sobre si estas medidas serán suficientes para prevenir futuros incidentes de seguridad y manipulación de los sistemas de .
Los expertos coinciden en que la solución de las vulnerabilidades en los chatbots de inteligencia artificial será un proceso prolongado que requerirá esfuerzos continuos y considerables recursos financieros.
Síguenos en Twitter para mantenerte informado.
Síguenos en Facebook y entérate de las noticias trend de la semana
No hay comentarios.:
Publicar un comentario