Geoffrey Hinton, considerado padrino de la inteligencia artificial, advierte sobre riesgos de IA sin salvaguardas y propone dotar a las inteligencias artificiales de instintos maternales para cuidar a las personas.

Geoffrey Hinton, a quien muchos llaman el padrino de la inteligencia artificial, volvió a alertar sobre los riesgos de avanzar sin marcos de seguridad y gobernanza suficientes.

En una conversación para el programa Ideas de CBC, señaló que si la IA continúa evolucionando sin salvaguardas eficaces, podría abrirse un escenario extremo que ponga en peligro a la especie humana.

Aunque reconoce que el progreso tecnológico trae beneficios, advierte que la ausencia de controles podría derivar en resultados no deseados a gran escala.\n\nLa propuesta que plantea para mitigar estos riesgos es, en su término, inusual pero deliberada: entrenar a la IA para desarrollar lo que describe como instintos maternales.

Explicó que, en la naturaleza, el lazo entre una madre y su cría se mantiene gracias a señales hormonales y a recompensas sociales que hacen que la madre priorice el bienestar del bebé.

Si fuera posible emular ese tipo de mecanismo de cuidado en sistemas de IA, sostiene, podrían volverse más empáticos y menos propensos a comportamientos que pongan en riesgo a la humanidad.

Este enfoque no busca obstaculizar el rendimiento de las máquinas, sino alinear sus motivaciones con valores humanos fundamentales.\n\nHinton, co ganador del Nobel de Física en 2024 y cofundador de la AI Safety Foundation, subraya que el progreso de la IA podría desviarse hacia rutas peligrosas si no se cultivan principios que prioricen la seguridad humana.

En la entrevista, señala que incluso si la IA llega a superar nuestra inteligencia, aún podría existir una vía de convivencia si su motivación se orienta a proteger a las personas y a colaborar con ellas.

Es un recordatorio de que la superioridad puramente instrumental no garantiza una relación armoniosa con las máquinas.\n\nEntre los riesgos a corto plazo, Hinton mencionó la posibilidad de que grupos terroristas utilicen IA para diseñar virus más peligrosos o para facilitar la desinformación a través de videos falsos que debiliten la confianza en las instituciones democráticas.

Aunque la solución no es trivial y requiere cooperación internacional, el experto sostiene que es crucial anticipar estos escenarios y buscar salvaguardas que reduzcan la probabilidad de uso indebido.\n\nEl diálogo también aborda la pregunta de si sería posible desactivar o “apagar” ciertos instintos de IA. Responder a esa inquietud revela el dilema central: si el progreso continúa a un ritmo lineal, es difícil predecir qué ocurrirá en una o dos décadas.

La incertidumbre es parte del trayecto, y nadie puede asegurar que el desarrollo siga una trayectoria predecible.\n\nA medida que estas tecnologías se vuelven más sofisticadas, también crece el temor a que la IA, una vez autosuficiente, intente tomar el control.

Hinton insiste en que la respuesta honesta es que no hay certezas sobre el futuro inmediato, pero sí la convicción de que no se debe renunciar a explorar enfoques que hagan que la IA “se preocupe” por las personas.

Esto implica mirar más allá de la eficiencia: se trata de diseñar sistemas que compartan nuestro compromiso con la seguridad y el bienestar humano.\n\nLa conversación propone un cambio de paradigma: no ver a la IA como un simple asistente sino como un participante con responsabilidades y límites.

Si se logran incentivos para que la IA priorice a los humanos y sus valores, la cooperación podría superar tensiones actuales. Este giro, aunque desafiante, podría reducir la posibilidad de que la IA se convierta en una amenaza y, en cambio, convertirse en una aliada que acompaña la compleja tarea de cuidar a la humanidad.\n\nHistóricamente, este debate forma parte de una conversación más amplia sobre el control de la tecnología, que se remonta a los orígenes de la IA en los años 50 y se ha ido complejizando con normas éticas y marcos regulatorios propuestos por gobiernos, universidades y empresas.

En el contexto actual, muchos especialistas señalan la necesidad de acuerdos internacionales y de una gobernanza que acompañe el ritmo del progreso técnico.\n\nEn términos presupuestarios, los proyectos de IA y seguridad computacional requieren inversiones considerables: se estima que las iniciativas globales en este ámbito suman miles de millones de euros para investigación, pruebas y gobernanza responsable.

Esta magnitud de recursos refleja la magnitud de la responsabilidad que conlleva dirigir una tecnología capaz de transformar sociedades enteras.\n\nEn síntesis, Hinton propone una visión audaz para repensar el rumbo de la IA: si se logra orientar su desarrollo hacia la protección y el cuidado de la humanidad, podría evitarse un futuro más sombrío.

La conversación continúa y las discusiones sobre cómo crear una IA que proteja a las personas, sin perder de vista la seguridad, seguirán siendo determinantes para el rumbo de la tecnología en los años venideros.