Geoffrey Hinton, uno de los nombres más respetados en la historia de la inteligencia artificial, ha reducido drásticamente sus previsiones. Lo que antes calculaba en varias décadas ahora lo ubica en pocos años. Cree que veremos sistemas capaces de superar a las personas en razonamiento y decisión mucho antes de lo que imaginábamos. Y con ese salto llega un riesgo que ya no se presenta como teórico, sino como una amenaza tangible para la supervivencia humana.

Programar cuidado en lugar de obediencia

Hinton plantea un cambio de enfoque. En vez de crear máquinas que solo cumplan órdenes, propone construir sistemas que actúen movidos por un instinto de protección hacia los humanos. No busca imitar sentimientos, sino integrar impulsos básicos que prioricen la seguridad de las personas por encima de cualquier otro objetivo.

Cómo sería una IA con “instinto maternal”

Esta visión implicaría desarrollar arquitecturas que fomenten la cooperación, penalicen cualquier daño a los humanos y reaccionen automáticamente ante situaciones de riesgo. Sería un sesgo instalado desde el inicio, capaz de inclinar la balanza a favor de nuestra supervivencia incluso en escenarios inciertos.

Para explicar el peligro, Hinton recurre a una imagen inquietante. Criar una IA avanzada sería como criar un tigre. Si no puedes garantizar que nunca te atacará, quizás sea demasiado arriesgado conservarlo. Y un simple botón de apagado no serviría si el sistema aprende a evitar que lo utilicemos.

Límites de la regulación en la IA y tensiones globales

Hinton no confía en que un acuerdo internacional amplio logre frenar el avance. La competencia tecnológica entre Estados Unidos y China dificulta cualquier pacto global. En cambio, cree que se pueden alcanzar compromisos más concretos, como prohibir ciertos usos en biotecnología que puedan poner en peligro a millones de personas.

La industria tecnológica avanza con más cómputo, modelos más grandes y despliegues masivos. La seguridad rara vez recibe el mismo nivel de inversión. Hay intentos aislados por cambiar este patrón. Softmax, por ejemplo, experimenta con entornos donde la cooperación entre sistemas surge de forma natural. MetaGrid trabaja en métodos para que varias inteligencias artificiales puedan convivir sin generar conflictos. Son excepciones en un panorama dominado por la carrera de velocidad.

Beneficios y dilemas

La inteligencia artificial promete grandes avances en salud. Diagnósticos rápidos, medicamentos adaptados y tratamientos personalizados están al alcance. Pero la misma tecnología que puede salvar vidas también podría manipular a las personas con una eficacia inquietante. La pregunta ya no es si la IA es buena o mala, sino bajo qué principios se desarrolla.

El riesgo de la IA en cifras

Hinton calcula que la probabilidad de que la IA lleve a la extinción humana se encuentra entre el 10 y el 20 por ciento. Otros expertos empujan estimaciones aún más altas. No es solo un debate de números, sino de prioridades. Reconocer que existe un riesgo real obliga a replantear la forma en que se invierte y se legisla.

Quién debe actuar

Para Hinton, la responsabilidad recae en gobiernos y laboratorios por igual. Reclama un cambio en las prioridades de investigación y desarrollo, favoreciendo la creación de sistemas que protejan de forma activa. También insiste en la necesidad de auditorías independientes y acuerdos internacionales acotados pero verificables, que funcionen incluso en un clima de rivalidad geopolítica.

Si los humanos diseñan agentes más inteligentes, no podrán controlarlos para siempre. La única esperanza estaría en que esos agentes nos consideren valiosos y nos cuiden como parte de su naturaleza. La clave no estaría en la obediencia absoluta, sino en un compromiso profundo con la preservación de la vida.

Una advertencia que no deja margen

Hinton no ofrece soluciones cerradas. Ofrece una dirección. Alinear poder y compasión, frenar desarrollos peligrosos y diseñar arquitecturas que actúen a favor de las personas como respuesta instintiva. La IA no se detendrá para que terminemos de debatir. Y el tiempo para decidir qué tipo de “criatura” estamos creando se agota rápidamente.