¿Cómo frenar la amenaza de la IA? Suelta a los abogados

Las tecnologías de IA como ChatGPT ponen de relieve la necesidad urgente de abordar las implicaciones éticas y jurídicas

El 55% de los estadounidenses están preocupados por la amenaza de la IA para el futuro de la humanidad, según una encuesta reciente de la Universidad de Monmouth. Más de 1.000 expertos en IA y financiadores, entre ellos Elon Musk y Steve Wozniak, firmaron una carta pidiendo una pausa de seis meses en el entrenamiento de nuevos modelos de IA. A su vez, Time publicó un artículo pidiendo una prohibición mundial permanente.

Sin embargo, el problema de estas propuestas es que requieren la coordinación de numerosas partes interesadas de una gran variedad de empresas y figuras gubernamentales. Permíteme compartir una propuesta más modesta que está mucho más en consonancia con nuestros métodos actuales de frenar los desarrollos potencialmente amenazadores: la responsabilidad legal.

Por ejemplo, un chatbot de IA que perpetúe el discurso del odio o la desinformación podría provocar un daño social significativo. Una IA más avanzada a la que se encomendara la tarea de mejorar las acciones de una empresa podría -si no estuviera sujeta a preocupaciones éticas- sabotear a sus competidores. Al imponer responsabilidad legal a los desarrolladores y a las empresas, creamos un potente incentivo para que inviertan en perfeccionar la tecnología para evitar tales resultados.

¿Qué ocurre con la Sección 230 de la Ley de Decencia en las Comunicaciones, que durante mucho tiempo ha protegido a las plataformas de Internet de la responsabilidad por los contenidos creados por los usuarios? Sin embargo, la Sección 230 no parece cubrir los contenidos generados por IA. La ley define el término "proveedor de contenidos de información" como "cualquier persona o entidad que sea responsable, total o parcialmente, de la creación o desarrollo de información proporcionada a través de Internet o de cualquier otro servicio informático interactivo".

CHATGPT Y ATENCIÓN SANITARIA: ¿PODRÍA EL CHATBOT AI CAMBIAR LA EXPERIENCIA DEL PACIENTE?

La definición de "desarrollo" de contenidos "en parte" sigue siendo algo ambigua. Aun así, las sentencias judiciales han determinado que una plataforma no puede acogerse a la protección de la Sección 230 si suministra "respuestas prepobladas", de modo que es "mucho más que un transmisor pasivo de información proporcionada por otros".

Por tanto, es muy probable que los casos legales determinen que los contenidos generados por IA no estarían cubiertos por la Sección 230: sería útil para los que desean una ralentización del desarrollo de la IA lanzar casos legales que permitieran a los tribunales aclarar este asunto. Al aclarar que los contenidos generados por IA no están exentos de responsabilidad, creamos un fuerte incentivo para que los desarrolladores actúen con cautela y se aseguren de que sus creaciones cumplen las normas éticas y legales.

La introducción de una responsabilidad legal clara para los desarrolladores de IA obligará a las empresas a dar prioridad a las consideraciones éticas, garantizando que sus productos de IA funcionen dentro de los límites de las normas sociales y las regulaciones legales. La amenaza de la responsabilidad legal ralentizará efectivamente el desarrollo de la IA, proporcionando tiempo suficiente para la reflexión y el establecimiento de marcos de gobernanza sólidos.

Además, la responsabilidad legal es mucho más factible que una pausa de seis meses, por no hablar de una pausa permanente. Está en consonancia con la forma en que hacemos las cosas en Estados Unidos: en lugar de que el gobierno regularice los negocios, permitimos la innovación pero castigamos las consecuencias negativas de la actividad empresarial perjudicial.

HAZ CLIC AQUÍ PARA RECIBIR EL BOLETÍN DE OPINIÓN

Al ralentizar el desarrollo de la IA, podemos adoptar un enfoque deliberado de la integración de los principios éticos en el diseño y despliegue de los sistemas de IA. Esto reducirá el riesgo de sesgo, discriminación y otros escollos éticos que podrían tener graves implicaciones sociales.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Mientras tanto, los gobiernos y las entidades privadas deben colaborar para establecer organismos de gobernanza de la IA que elaboren directrices, reglamentos y buenas prácticas para los desarrolladores de IA. Estos organismos pueden ayudar a supervisar el desarrollo de la IA y garantizar el cumplimiento de las normas establecidas. Esto ayudaría a gestionar la responsabilidad legal y facilitaría la innovación dentro de unos límites éticos.

La creciente prominencia de tecnologías de IA como ChatGPT pone de relieve la urgente necesidad de abordar las implicaciones éticas y jurídicas del desarrollo de la IA. Aprovechando la responsabilidad legal como herramienta para frenar el desarrollo de la IA, podemos crear un entorno que fomente la innovación responsable, dé prioridad a las consideraciones éticas y minimice los riesgos asociados a estas tecnologías emergentes. Es esencial que los desarrolladores, las empresas, los reguladores y el público se unan para trazar un curso responsable para el desarrollo de la IA que salvaguarde los mejores intereses de la humanidad y promueva un futuro sostenible y equitativo.

HAZ CLIC AQUÍ PARA LEER MÁS DE GLEB TSIPURSKY

Carga más..