Tres formas de regular la IA ahora mismo, antes de que sea demasiado tarde

Toda una generación dependerá de la IA para cualquier tarea que requiera un mínimo de pensamiento analítico

La Inteligencia Artificial ha tomado el mundo por asalto. Desde que se lanzó ChatGPT de OpenAI en noviembre de 2022, se convirtió inmediatamente en la aplicación de más rápido crecimiento en la historia de la Web, superando los 100 millones de usuarios activos mensuales en dos meses. Ha anunciado una carrera armamentística por la IA entre Microsoft (que invirtió miles de millones en ChatGPT), Google (que lanzó su rival ChatGPT, Bard, el 21 de marzo) y otros gigantes tecnológicos que compiten por la supremacía de la IA, incluido el conglomerado mediático chino Baidu. 

Aunque esta explosión de la tecnología puede producir importantes ventajas, incluidos avances científicos, también presagia el fin del pensamiento crítico tal y como lo conocemos.

El pensamiento crítico es una habilidad humana que desarrollamos con esmero y perfeccionamos experimentalmente a lo largo de nuestra vida, desde la infancia. Se convierte en nuestro filtro personal y constantemente perfeccionado, para nuestras opiniones, pensamientos, decisiones, relaciones, hábitos, para todo. 

ChatGPT de OpenAI se convirtió inmediatamente en la aplicación de más rápido crecimiento en la historia de la Web, superando los 100 millones de usuarios activos mensuales en dos meses. (Reuters/Dado Ruvic/Ilustración)

Estamos a punto de presenciar cómo toda una generación de jóvenes, y las futuras generaciones venideras, se verán fundamentalmente perjudicadas en su desarrollo de esta habilidad vital. En su lugar, dependerán de la IA para cualquier tarea que requiera un mínimo de pensamiento analítico, ya que en cuestión de segundos puede generar respuestas coherentes, notablemente humanas y personalizadas de forma única a prácticamente cualquier pregunta o petición. 

EL CHATGPT SUSCITA PREOCUPACIÓN SOBRE EL FUTURO DE LA EDUCACIÓN: ¿IMPACTARÁ EN LA "INTEGRIDAD" DE LAS INSTITUCIONES ACADÉMICAS?

Incluso los niños de primaria ya utilizan la IA. Antes de ChatGPT, los niños modernos tenían Google y la Web, pero aún tenían que investigar y filtrar información entre numerosos resultados. Eso requiere pensamiento crítico. Ahora, los chatbots de IA han dejado obsoletas esas cavilaciones. 

El 27 de febrero, Snapchat, que en todo el mundo tiene más de 300 millones de usuarios de entre 13 y 24 años, anunció su propio chatbot impulsado por ChatGPT. Los usuarios tienen ahora un "amigo" de IA del que pueden depender 24 horas al día, 7 días a la semana, y que nunca les criticará ni discutirá con ellos. A medida que Facebook y otros gigantes de las redes sociales sigan pronto con sus chatbots de IA, veremos cómo el crecimiento emocional y las habilidades de comunicación interpersonal de las generaciones futuras se atrofian irrevocablemente.

Un desarrollador en GitHub ha ideado recientemente una forma de integrar ChatGPT en WhatsApp, para que la gente pueda utilizar el chatbot de IA para responder a los mensajes de texto de sus amigos. Una periodista de Business Insider informó de que utilizaba ChatGPT para generar textos y respuestas a sus parejas en aplicaciones de citas. Pronto, no será raro tener dos chatbots chateando o flirteando entre sí en nombre de sus homólogos humanos.

Sin aprender nunca a desarrollar la inteligencia emocional o las habilidades conversacionales, los seres humanos pueden quedar pronto reducidos a zánganos descerebrados cuya única función sea pulsar "enviar".

Según una encuesta de la revista online Intelligent, en enero (sólo dos meses después del lanzamiento de ChatGPT), el 30% de los estudiantes universitarios utilizaron ChatGPT en trabajos escritos, y el 60% de esos estudiantes lo utilizaron en "más de la mitad de sus trabajos". El director general de Open AI, Sam Altman, dijo que la tecnología avanza tan rápido que detectar con éxito el plagio con IA es "fundamentalmente imposible".

El director ejecutivo de OpenAI, Sam Altman, habla durante un discurso en el que anuncia la integración de ChatGPT para Bing en Microsoft en Redmond, Washington, el 7 de febrero de 2023. (Jason Redmond/AFP vía Getty Images)

Antes de que nuestra juventud actual ponga un pie en cualquier lugar de trabajo, la IA también estará firmemente establecida allí. El 16 de marzo, Microsoft anunció su 365 Copilot, añadiendo IA a Word, Excel, PowerPoint, Outlook y Teams. El 14 de marzo, Google anunció "una nueva era para la IA y Google Workplace", explicando que integrará la IA en Google Docs, Gmail, Google Sheets y Google Slides. Esta tecnología autocompletará tus correos electrónicos y documentos, escribirá cartas de presentación y artículos por ti, y mucho más, sustituyendo pronto la mayoría de las necesidades de trabajo reflexivo.

LA NUEVA AI UPGRDE PODRÍA SER INDISTINGUIBLE DE LOS HUMANOS: EXPERTO

Aunque la IA va camino de ser mucho más inteligente que los humanos, también es una mentirosa involuntaria pero frecuente. Bing de Microsoft implementó recientemente ChatGPT y se ha demostrado que proporciona respuestas erróneas y comparte con confianza falsedades, ahora acuñadas como "alucinaciones". 

En uno de esos casos, según The Verge, "el Chat GPT de Bing llegó a afirmar que espiaba a los empleados de Microsoft a través de las webcams de sus portátiles y los manipulaba". Los deepfakes generados por IA (vídeos o imágenes alterados digitalmente que parecen falsamente auténticos) son cada vez más sofisticados y difíciles de detectar. Pueden acumular rápidamente millones de visitas en las redes sociales, engañando a innumerables espectadores y dejándonos desconcertados, incapaces de descifrar la realidad de la ficción.  

"El Chat GPT de Bing llegó a afirmar que espiaba a los empleados de Microsoft a través de las webcams de sus portátiles y los manipulaba", según The Verge. (AP Photo/Richard Drew)

La tecnología sigue mejorando a un ritmo exponencial y alarmante. El 14 de marzo, sólo unos meses después de su lanzamiento original de ChatGPT, OpenAI lanzó ChatGPT-4. En el examen de acceso a la abogacía y en las pruebas SAT, Cointelegraph informó:"GPT-4 completó muchas de las pruebas dentro del 10% superior de la cohorte, mientras que la versión original de ChatGPT a menudo terminaba en el 10% inferior".

¿Qué pasará cuando lleguemos al GPT-5, 6, 7 o 100? Sometiéndose a la supuesta inteligencia superior de la IA, la gente pronto confiará en los chatbots de la IA para tomar todas sus decisiones, desde qué programa ver, dónde vivir, qué trabajo aceptar, con quién casarse y a quién votar. ¿Qué presagia esto para la democracia? Todos aclaman y se inclinan ante el señor de la IA, el dictador amistoso y personal de la vida de todos. 

La IA no es neutral, no puede serlo. Esta tecnología está siendo liderada por corporaciones como Google, Microsoft, Meta y otras. Los ejecutivos y desarrolladores de estas empresas participan en las pruebas y el ajuste de sus chatbots, además de establecer sus reglas y límites. Los responsables pueden decidir qué fuentes utiliza para recopilar sus datos, determinar sus procesos de formación y realizar ajustes en sus respuestas. Cada decisión de sus propietarios y desarrolladores orienta las entradas y salidas de datos de la IA en una dirección determinada, ya sea intencionada o inadvertidamente. 

EL GIGANTE TECNOLÓGICO SAM ALTMAN COMPARA LA PODEROSA INVESTIGACIÓN DE LA AI CON LOS ALBORES DE LA GUERRA NUCLEAR: INFORME

Independientemente de tu orientación política, todos estaremos sujetos a los sesgos inherentes incorporados por los propietarios de la IA. Si dependemos de la IA para que realice nuestro pensamiento crítico, mientras sus propios mecanismos de pensamiento crítico tienen sesgos programados, entonces estamos doblemente en problemas. 

Los incentivos de maximización de beneficios de las empresas que poseen y explotan esta tecnología les obligan a avanzar lo más rápido posible. Se necesitan urgentemente normativas para mantener esta tecnología bajo control antes de que sea demasiado tarde. 

Hay soluciones que pueden ayudar, y ahora es el momento de establecerlas. Tres en concreto: 

Uno, crear una nueva comisión reguladora formada por expertos en IA y ética para una supervisión discreta y aplicable. 

Dos, a nivel federal, legislar nuevas normativas que exijan una transparencia total de todos los chatbots de IA, revelando completamente las fuentes de las que los sistemas de IA están recopilando datos, y qué normas y guardarraíles específicos se ponen en marcha. 

HAZ CLIC AQUÍ PARA RECIBIR EL BOLETÍN DE OPINIÓN

En tercer lugar, ya sea voluntariamente o por mandato si es necesario, todo el contenido generado por los chatbots de IA debe identificarse como tal. Como informa MIT Technology Review, es posible incrustar "marcas de agua" ocultas en los Grandes Modelos de Lenguaje utilizados por estos sistemas de IA, lo que ayudará a los ordenadores a detectar si el contenido ha sido creado por la IA.

Estas soluciones no lo resolverán todo, pero son pasos vitales que pueden ponerse en práctica ahora.

El despliegue de ChatGPT y sus hermanos va muy por delante de las evaluaciones sobre su potencial perjudicial. La necesaria habilidad cognitiva de la vida llamada pensamiento crítico está en el punto de mira. Hay momentos en que los órganos de gobierno deben intervenir urgentemente para remediar la tecnología descontrolada: éste es uno de esos momentos. 

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Carga más..