El boom de la inteligencia artificial no ha sido acogido con igual entusiasmo en todo el mundo y ya, muchos, están denunciando los peligros de la inteligencia artificial. No son pocos los expertos que han levantado su voz para señalar los peligros de la inteligencia artificial y el daño irreversible que pudiera causar una expansión incontrolada de esta tecnología. Las dificultades para distinguir la verdad de la mentira y separar lo real de lo falso aparecen entre las principales preocupaciones.

El afamado abogado Giovanni Caporaso acaba de presentar una carta demanda a ChatGPT por difamación y fabricación de fake news. ¨He empezado con este instrumento jurídico americano para ver si encontramos un acuerdo y evitamos llegar a las Cortes. He documentado cómo ChatGPT crea fake news sobre personas que son consideradas contra el establishment.  Ya me han contestado afirmando que han resuelto el problema de las fake news, queda abierto el reclamo de indemnización por difamación».

La inteligencia artificial es una herramienta que parece ser capaz de cualquier cosa. Puede escribir artículos, ensayos, poemas, novelas en segundos, solo a partir de las indicaciones que reciba. Puede actuar como un asistente virtual. Tiene fuertes aplicaciones en la educación, las finanzas, la salud, la logística y el transporte. Sus ventajas son muy evidentes. Posibilita la reducción de los errores humanos. Ofrece eficiencia y automatización. Contribuye a la resolución de problemas. A pesar de estas enormes posibilidades, los peligros de la inteligencia artificial son muy fuertes, aunque muchos no siempre los tienen en cuenta.

¿Cuáles son los peligros de la inteligencia artificial?

La inteligencia artificial generativa, como se denomina la que se emplea para crear contenidos nuevos, nos ha colocado ante un escenario preocupante. Cada vez es más difícil separar lo auténtico de lo falso.

Las agencias de seguridad ya han alertado sobre cómo los ciberdelincuentes utilizan voces fraudulentas de usuarios para acceder a sus cuentas. Con la IA han proliferado los vídeos “deep fakes”, en los que se colocan rostros de personas conocidas sobre otras imágenes, para manipular el contenido. Uno de los casos más polémicos fue el vídeo falso del presidente ucraniano Volodomir Zelenski en el que anunciaba la rendición de las tropas de su país que enfrentan al ejército ruso. En la actualidad, el contenido se comparte rápidamente a través de las redes sociales. Ese vídeo fue rápidamente desmentido, pero ya se había viralizado, por lo que la maniobra manipuladora surtió efecto.

La proliferación de la IA también amenaza los puestos de trabajo. Algunos gurús, como Bill Gates, no concuerdan con esto. Según el fundador de Microsoft, la IA asumirá funciones rutinarias y los trabajadores podrán centrarse en actividades más “creativas”. Pero la realidad desmiente al multimillonario. Por ejemplo, Buzzfeed anunció que recurrirá a ChatGPT para crear gran parte de su contenido para las redes. Esta noticia se dio a conocer casi al mismo tiempo que la empresa anunció el despido de casi 200 trabajadores. Otras empresas seguirán esta ruta. La IA no se enferma, trabaja 24 horas, los siete días de la semana y no cobra seguridad social.

Medidas contra la manipulación de la inteligencia artificial

Brian Hood, un alcalde regional de Australia, se convirtió en la primera persona en el mundo que demandó a los desarrolladores de ChatGPT. El político acusa a esa empresa de crear falsas acusaciones sobre su persona.

Cuando se le pregunta a ChatGPT sobre quién es Brian Hood, la IA afirma que este fue condenado a 30 meses de prisión por aceptar sobornos. En realidad, Hood no cometió ese delito. Ni siquiera fue acusado. El alcalde fue quien contribuyó a destapar un escándalo de corrupción que involucraba al Banco Nacional de la Reserva de Australia, a comienzos de los años 2000.

“Todo se presenta de una manera que te hace creer que es real y fáctico y digno de confianza. Así que creo que hay que hacer mucho para reforzar la exactitud de estas cosas. Creo que es muy urgente porque realmente pueden dañar la reputación de la gente de forma totalmente falsa o de empresas u organizaciones. Si me puede pasar a mí, le puede pasar a cualquiera”, aseveró Hood.

No es el único caso en que ChatGPT ha sido utilizado para difamar. El chatbot creó una falsa acusación de acoso sexual contra un profesor de Derecho, en Estados Unidos. Como fuente utilizó un artículo del diario The Washington Post que nunca fue publicado.

Los gobiernos han reaccionado a la expansión de la inteligencia artificial. Italia fue el primer país que prohibió el uso de ChatGPT. Otros evalúan opciones para establecer fuertes regulaciones sobre su empleo, como Reino Unido.

¿Qué puede suceder en el futuro con la inteligencia artificial?

A pesar de las medidas reguladoras que, de seguro, entrarán en vigor en más países, la mayoría de los analistas coinciden en destacar que el nuevo escenario de la IA ha llegado para quedarse. No hay vuelta atrás. Si hoy en día nos resulta difícil distinguir un contenido auténtico de uno falso, en el futuro será todavía más difícil establecer estas distinciones. Sin sonar catastrofista, viviremos en un mundo en el que no sabremos en quién o qué confiar.

La solución a largo plazo es avanzar con la alfabetización digital de la ciudadanía. Así será más capaz de distinguir, por sí misma, la realidad del engaño. También aprenderá a buscar información en la red y confiar solo en las fuentes confiables.