Más de 60 países asistieron a una cumbre en París, donde las diferencias sobre la regulación de la inteligencia artificial fueron evidentes. Mientras algunos países se comprometen a un desarrollo inclusivo de la IA, otros se resisten a firmar acuerdos internacionales.

Imagen relacionada de desacuerdos regulacion inteligencia artificial paris

Más de 60 naciones se reunieron en París esta semana en una cumbre destinada a crear un consenso global sobre la regulación de la inteligencia artificial (IA).

Sin embargo, la reunión reveló desconexiones significativas entre las posturas de diversas potencias. La Cumbre sobre la Acción de la Inteligencia Artificial, celebrada el 11 de febrero, se concibió como un espacio para unir a los principales actores del mundo en torno a un enfoque responsable del desarrollo de la IA.

Sin embargo, la ausencia de firmas de países como Estados Unidos y Reino Unido en un documento que promueve un desarrollo accesible e inclusivo de esta tecnología demostró las profundidades de sus diferencias.

A lo largo de los últimos años, la Unión Europea ha estado a la vanguardia de la regulación de las grandes tecnológicas, enviando a investigar a empresas estadounidenses prominentes como Google y Apple, y promulgando leyes destinadas a una supervisión más rigurosa de sus actividades.

En contraste, la administración de Donald Trump en Estados Unidos se centró en desregular la industria tecnológica, argumentando que las regulaciones obstaculizan la innovación.

Esta tensión entre el deseo de promover la innovación y la necesidad de regulación fue un tema recurrente durante la cumbre.

Teresa Scassa, profesora de la Universidad de Ottawa y experta en derecho de la información, señaló que esta tensión es crítica en la actualidad: 'Lo que estamos viendo aquí es este tira y afloja entre, por un lado, el deseo de impulsar la economía a través de la innovación en IA, y por otro lado, la necesidad de regularla'.

Además, el Reino Unido busca posicionarse como un modelo alternativo al enfoque más conservador de la UE respecto a la regulación de la IA. Un portavoz del Primer Ministro británico, Keir Starmer, manifestó que el país solo se involucraría en iniciativas que estén alineadas con sus intereses nacionales.

Durante su intervención en la cumbre, el vicepresidente de EE. UU., JD Vance, subrayó que un exceso de regulación podría asfixiar la industria de la IA. Sin embargo, su comentario advirtió también a otras naciones sobre los riesgos de involucrarse con China, planteando preocupaciones sobre la espionaje.

Este discurso de Vance se produce en un contexto donde China, criticada durante mucho tiempo por sus prácticas de derechos humanos, firmó el documento principal de la cumbre, sorprendiendo a muchos observadores.

Por otro lado, Ursula von der Leyen, presidenta de la Comisión Europea, defendió la postura de la UE, expresando su esperanza de que Europa se convierta en líder de IA, aunque con un enfoque distintivo.

Afirmó: 'La carrera por la IA está lejos de haber terminado. La verdad es que estamos solo al principio.'

El tono de la cumbre también se vio marcado por el presidente francés, Emmanuel Macron, quien co-presidió el evento. Macron sugirió que la coalición económica de la UE podría haber ido demasiado lejos en su regulación, advirtiendo que los países están 'rezagados'.

Sin embargo, la declaración final de la cumbre fue más suave de lo esperado, con pocas referencias concretas a la regulación, la seguridad y la desinformación.

Las divisiones ideológicas entre Estados Unidos y Europa en la regulación de la IA presentan un desafío significativo para otros países, como Canadá, que se encuentra entre estas dos grandes economías.

La falta de legislación integral sobre la IA en Canadá ha dejado muchas preguntas sin respuesta, especialmente ante un futuro donde la regulación se vuelve cada vez más compleja y frágil.

La situación actual en la regulación de la IA es un reflejo de un entorno tecnológico en constante evolución, donde los movimientos de un país pueden tener repercusiones globales, planteando el dilema de si la innovación puede prosperar bajo restricciones, o si la falta de controles podría propiciar el desarrollo irresponsable de tecnologías que tienen el potencial de transformar radicalmente la sociedad.