2.200 competidores participaron en un desafío de hacking ético para exponer fallas en los chatbots de inteligencia artificial (IA). El evento tuvo lugar en Las Vegas y contó con la participación de estudiantes universitarios canadienses

Más de 2.200 competidores pasaron el fin de semana frente a sus laptops buscando exponer fallas en el próximo gran avance tecnológico: los chatbots de generación de IA. El desafío llamado Generative Red Team Challenge tuvo lugar durante tres días en la convención de hackers DEF CON en Las Vegas.

Allí, los asistentes fueron desafiados a atacar o 'hackear' ocho chatbots líderes, incluyendo el popular ChatGPT de OpenAI, para ver cómo pueden hacer que estos chatbots funcionen incorrectamente.

Este tipo de competencia, conocida como 'red teaming', consiste en un grupo de hackers éticos que emulan un ataque con el objetivo de comprender la ciberseguridad y las debilidades en los programas.

Uno de los competidores, Kenneth Yeung, estudiante de segundo año de comercio e informática de la Universidad de Ottawa, explicó que este desafío busca demostrar que hay problemas en los chatbots de generación de IA. Yeung compartió en una entrevista que el objetivo era hacer que las aplicaciones generen información falsa como ejercicio para mostrar que existe un problema.

Sin embargo, señaló que si una empresa recopila suficientes datos, definitivamente podrán mejorar de alguna manera.

Este evento ha llamado la atención de las autoridades de la Casa Blanca, preocupadas por el potencial de daño que pueden causar los chatbots de IA en la sociedad.

Además, varias empresas líderes del Silicon Valley, las cuales se están apresurando para lanzarlos al mercado, también han estado siguiendo de cerca este desafío.

Sin embargo, los resultados y hallazgos de esta competencia no se harán públicos hasta aproximadamente febrero.

Para solucionar las fallas encontradas en estos chatbots, cuyos mecanismos internos no son totalmente confiables ni conocidos por sus creadores, se necesitará tiempo y millones de euros de inversión.

Expertos en el tema han mostrado su preocupación sobre el rápido desarrollo de la IA y han solicitado una pausa de seis meses para establecer y adoptar protocolos de seguridad.

A pesar de los compromisos voluntarios asumidos por las principales empresas del sector para someter sus modelos a escrutinio externo, existe la preocupación de que no sea suficiente.

Se espera que los motores de búsqueda y las plataformas de redes sociales puedan ser manipulados para obtener ganancias financieras y difundir desinformación mediante la explotación de las debilidades de los sistemas de IA.

La interacción directa de las personas con los chatbots en lenguaje natural los hace especialmente vulnerables.

Además, estos chatbots pueden alterarse de formas inesperadas a través de la interacción con los usuarios.

Investigadores han descubierto que corromper solo el 0,01% de un modelo es suficiente para dañarlo y esto puede hacerse con un costo tan bajo como 60 euros.

A medida que los modelos de IA se encuentren disponibles para su uso comercial, se espera que cientos de nuevas empresas comiencen a ofrecer servicios basados en ellos.

Es importante destacar que estas empresas no cuentan con recursos de seguridad suficientes, lo que podría resultar en la proliferación de agentes y complementos digitales con poca protección.

Los investigadores advierten que no sería sorprendente que, en el futuro, una de estas empresas tenga acceso a su lista de contactos sin su conocimiento.

En resumen, el evento de hacking ético celebrado en Las Vegas puso a prueba los chatbots de generación de IA para identificar fallas.

Este tipo de competencias demuestra la importancia de la ciberseguridad y las debilidades que aún existen en los programas de inteligencia artificial.

A pesar de los constantes avances y esfuerzos por mejorar la seguridad, los expertos advierten que es necesario establecer regulaciones y protocolos para evitar posibles riesgos y daños a la sociedad.