Cada vez más empresas utilizan la inteligencia artificial (IA) para las tareas cotidianas. Gran parte de esta tecnología contribuye a la productividad y a la seguridad pública. Sin embargo, algunos sectores se oponen a ciertos aspectos de la IA. Y algunos líderes del sector están trabajando para equilibrar lo bueno y lo malo.
"Estamos observando a los propietarios y operadores de infraestructuras críticas, empresas de agua y sanidad y de transporte y comunicaciones, algunas de las cuales están empezando a integrar algunas de estas capacidades de IA", dijo la Directora de la Agencia de Ciberseguridad y Seguridad de las Infraestructuras de EE.UU., Jen Easterly. "Queremos asegurarnos de que las están integrando de forma que no estén introduciendo muchos riesgos nuevos".
LA INDUSTRIA AGRÍCOLA ESTADOUNIDENSE PRUEBA LA INTELIGENCIA ARTIFICIAL: "MUCHO POTENCIAL
La consultora Deloitte encuestó recientemente a dirigentes de organizaciones empresariales de todo el mundo. Los resultados mostraron que la incertidumbre sobre las normativas gubernamentales era un problema mayor que la implantación real de la tecnología de IA. Cuando se les preguntó cuál era el principal obstáculo para implantar herramientas de IA, el 36% situó en primer lugar el cumplimiento de la normativa, el 30% la dificultad para gestionar los riesgos y el 29% la falta de un modelo de gobernanza.
Easterly afirma que, a pesar de algunos de los riesgos que puede plantear la IA, no le sorprende que el gobierno no haya tomado más medidas para regular la tecnología.
"Éstas van a ser las tecnologías más potentes de nuestro siglo, probablemente más", dijo Easterly. "La mayoría de estas tecnologías están siendo construidas por empresas privadas que están incentivadas para proporcionar beneficios a sus accionistas. Así que tenemos que asegurarnos de que el gobierno tiene un papel en el establecimiento de salvaguardias para garantizar que estas tecnologías se están construyendo de una manera que dé prioridad a la seguridad. Y ahí es donde creo que el Congreso puede tener un papel a la hora de garantizar que estas tecnologías son tan seguras como para ser utilizadas e implementadas por el pueblo estadounidense."
El Congreso ha estudiado protecciones generales para la IA, pero han sido principalmente los gobiernos estatales los que han promulgado las normas.
"Ciertamente hay muchas cosas positivas en lo que hace la IA. También, cuando cae en manos de malos actores, puede destruir la industria [musical]", dijo el gobernador Bill Lee, republicano de Tennessee, al firmar en marzo la legislación estatal para proteger a los músicos de la IA.
La Ley para garantizar la seguridad de la voz y la imagen, o Ley ELVIS, clasifica la semejanza vocal como un derecho de propiedad. Lee firmó la ley este año, convirtiendo a Tennessee en el primer estado en promulgar protecciones para los cantantes. Desde entonces, Illinois y California han aprobado leyes similares. Otros estados, entre ellos Tennessee, tienen leyes que determinan que los nombres, fotografías y parecidos también se consideran un derecho de propiedad.
"Nuestras voces y semejanzas son partes indelebles de nosotros que nos han permitido mostrar nuestro talento y aumentar nuestro público, no meras croquetas digitales para que una máquina las duplique sin consentimiento", dijo la artista country Lainey Wilson durante una audiencia en el Congreso sobre IA y propiedad intelectual.
Wilson alegó que su imagen y semejanza se utilizaron a través de AI para vender productos que ella no había respaldado previamente.
"Durante décadas, nos hemos aprovechado de una tecnología que, francamente, no se creó para ser segura. Se creó para acelerar la comercialización o para ofrecer funciones geniales. Y, francamente, por eso tenemos la ciberseguridad", dijo Easterly.
La Comisión Federal de Comercio (FTC) ha tomado medidas enérgicas contra algunas técnicas engañosas de marketing con IA. En septiembre puso en marcha la "Operación AI Cumple", que aborda las prácticas comerciales desleales y engañosas que utilizan IA, como las reseñas falsas escritas por chatbots.
"Yo am un tecnólogo de corazón, y yo am un optimista de corazón. Así que am estoy increíblemente entusiasmado con algunas de estas capacidades. Y am no me preocupan algunas de las cosas de Skynet. Lo que sí quiero es asegurarme de que esta tecnología se diseñe y desarrolle y pruebe y entregue de forma que se garantice que se da prioridad a la seguridad", dijo Easterly.
Los chatbots han recibido buenas críticas. Hawaii aprobó este año una ley para invertir más en investigación que utilice herramientas de IA en el ámbito sanitario. Un estudio revela que el chatbot de OpenAI superó a los médicos en el diagnóstico de enfermedades. El experimento comparó a los médicos que utilizaban ChatGPT con los que utilizaban recursos convencionales. Ambos grupos obtuvieron una precisión en torno al 75%, mientras que el chatbot por sí solo superó el 90%.
La IA no sólo se utiliza para detectar enfermedades, también ayuda a los equipos de emergencia a detectar sucesos catastróficos. Tras los mortales incendios forestales que devastaron Maui, los legisladores del estado de Hawaii también asignaron fondos a la Universidad de Hawaii para cartografiar los riesgos de incendios forestales en todo el estado y mejorar las tecnologías de previsión. También incluye 1 millón de dólares para una plataforma impulsada por IA. Hawaiian Electric también está desplegando cámaras de alta resolución por todo el estado.
"Aprenderá a lo largo de meses y años a ser más sensible a lo que es un incendio y a lo que no lo es", dijo el subsecretario de Inteligencia Artificial y Tecnología del Departamento de Energía, Dimitri Kusnezov.
California y Colorado disponen de una tecnología similar. En cuestión de minutos, la IA puede detectar cuándo se inicia un incendio y por dónde puede propagarse.
La IA también se utiliza para mantener a salvo a los alumnos. Varios distritos escolares del país disponen ahora de sistemas de detección de armas de fuego. Uno de ellos, en Utah, notifica a los funcionarios en cuestión de segundos que puede haber un arma en el campus.
"Queremos crear un entorno educativo acogedor que sea seguro. Pero no queremos que la seguridad afecte a la educación", dijo el distrito escolar de Park City, Utah, CEO Michael Tanner.
Maryland y Massachusetts también están considerando fondos estatales para implantar una tecnología similar. Ambos estados han votado la creación de comisiones para estudiar las nuevas tecnologías de armas de fuego. MarylandLa comisión de la UE determinará si se deben utilizar fondos de construcción de escuelas para construir los sistemas. Los miembros de Massachusetts estudiarán los riesgos asociados a la nueva tecnología.
"Queremos utilizar estas capacidades para garantizar que podemos defender mejor las infraestructuras críticas de las que dependen los estadounidenses cada hora de cada día", dijo Easterly.
La Unión Europea ha aprobado este año una normativa para la IA. Clasifica los riesgos desde mínimos, que no tienen regulación, hasta inaceptables, que están prohibidos. Los chatbots se clasifican como de transparencia específica y deben informar a los usuarios de que están interactuando con una máquina. El software para infraestructuras críticas se considera de alto riesgo y debe cumplir requisitos estrictos. La mayor parte de la tecnología que crea perfiles de personas o utiliza imágenes públicas para crear bases de datos se considera inaceptable.
HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
Estados Unidos tiene algunas directrices para el uso y la aplicación de la IA, pero los expertos creen que no llegará tan lejos como la UE clasificando los riesgos.
"Tenemos que mantenernos a la cabeza en Estados Unidos para garantizar que ganamos esta carrera por la inteligencia artificial. Y para ello hace falta inversión, hace falta innovación", dijo Easterly. "Tenemos que ser un motor de innovación que haga de Estados Unidos la mayor economía sobre la faz de la tierra".