Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.

Corea del Sur acogerá esta semana una minicumbre sobre los riesgos y la regulación de la inteligencia artificial, como continuación de una reunión inaugural sobre la seguridad de la IA celebrada en Gran Bretaña el año pasado, que atrajo a una variada multitud de luminarias de la tecnología, investigadores y funcionarios.

La reunión de Seúl pretende basarse en el trabajo iniciado en la reunión del Reino Unido para frenar las amenazas que plantean los sistemas de inteligencia artificial de vanguardia.

Esto es lo que tienes que saber sobre la Cumbre AI de Seúl y los problemas de seguridad de la IA.

CÓMO LA INTELIGENCIA ARTIFICIAL ESTÁ REMODELANDO LA GUERRA MODERNA

¿QUÉ ESFUERZOS INTERNACIONALES SE HAN REALIZADO EN MATERIA DE SEGURIDAD AI?

La cumbre de Seúl es uno de los muchos esfuerzos mundiales por crear barandillas para la tecnología en rápido avance que promete transformar muchos aspectos de la sociedad, pero que también ha suscitado preocupación por los nuevos riesgos tanto para la vida cotidiana, como el sesgo algorítmico que sesga los resultados de las búsquedas, como las posibles amenazas existenciales para la humanidad.

En la cumbre de noviembre en el Reino Unido, celebrada en una antigua base secreta de descifrado de códigos en tiempos de guerra en Bletchley, al norte de Londres, investigadores, dirigentes gubernamentales, ejecutivos tecnológicos y miembros de grupos de la sociedad civil, muchos de ellos con opiniones opuestas sobre la IA, se apiñaron en conversaciones a puerta cerrada. El director ejecutivo de Tesla, Elon Musk, y el director ejecutivo de OpenAI, Sam Altman, se mezclaron con políticos como el primer ministro británico, Rishi Sunak.

Cumbre de la Inteligencia Artificial de Corea del Sur

El primer ministro británico Rishi Sunk, en el centro, habla durante una sesión plenaria de la Cumbre sobre Seguridad de la IA en Bletchley Park, Milton Keynes, Inglaterra, el 2 de noviembre de 2023. Corea del Sur acogerá esta semana una minicumbre sobre los riesgos y la regulación de la inteligencia artificial, como continuación de una reunión inaugural sobre la seguridad de la IA celebrada en Gran Bretaña en 2023, que atrajo a una variada multitud de luminarias de la tecnología, investigadores y funcionarios. (AP Photo/Alastair Grant)

Delegados de más de dos docenas de países, incluidos Estados Unidos y China, firmaron la Declaración de Bletchley, acordando trabajar juntos para contener los riesgos potencialmente "catastróficos" que plantean los galopantes avances de la inteligencia artificial.

En marzo, la Asamblea General de la ONU aprobó su primera resolución sobre inteligencia artificial, prestando apoyo a un esfuerzo internacional para garantizar que la nueva y poderosa tecnología beneficie a todas las naciones, respete los derechos humanos y sea "segura y fiable".

A principios de este mes, Estados Unidos y China celebraron en Ginebra sus primeras conversaciones de alto nivel sobre inteligencia artificial para debatir cómo abordar los riesgos de esta tecnología en rápida evolución y establecer normas compartidas para gestionarla. Allí, los funcionarios estadounidenses expresaron su preocupación por el "uso indebido de la IA" por parte de China, mientras que los representantes chinos reprendieron a Estados Unidos por las "restricciones y presiones" sobre la inteligencia artificial, según sus gobiernos.

¿QUÉ SE DEBATIRÁ EN LA CUMBRE DE SEÚL?

La reunión de los días 21 y 22 de mayo está copatrocinada por los gobiernos de Corea del Sur y el Reino Unido.

El primer día, el martes, el presidente surcoreano Yoon Suk Yeol y Sunak se reunirán virtualmente con los líderes. Se espera que las principales empresas de IA proporcionen información actualizada sobre cómo han ido cumpliendo los compromisos adquiridos en la cumbre de Bletchley para garantizar la seguridad de sus modelos de IA.

El segundo día, los ministros digitales se reunirán en persona con el Ministro de Ciencia surcoreano, Lee Jong-ho, y la Secretaria de Tecnología británica, Michelle Donelan. Los temas subrayan cómo se ha ampliado el enfoque más allá de los riesgos extremos que fueron el centro de atención de la cumbre de Bletchley. Los participantes compartirán las mejores prácticas y planes de acción concretos. También compartirán ideas sobre cómo proteger a la sociedad de los efectos potencialmente negativos de la IA en ámbitos como el uso de la energía, los trabajadores y la proliferación de la desinformación y la desinformación, según los organizadores.

La reunión ha sido bautizada como minicumbre virtual, y servirá como reunión provisional hasta que se celebre una edición presencial en toda regla que Francia se ha comprometido a celebrar.

En la reunión de ministros digitales participarán representantes de países como Estados Unidos, China, Alemania, Francia y España, y de empresas como OpenAI, fabricante de ChatGPT, Google, Microsoft y Anthropic.

¿QUÉ PROGRESOS HAN HECHO LOS ESFUERZOS DE SEGURIDAD AI?

El acuerdo alcanzado en la reunión del Reino Unido era escaso en detalles y no proponía una forma de regular el desarrollo de la IA.

"Estados Unidos y China acudieron a la última cumbre. Pero si nos fijamos en algunos principios anunciados tras la reunión, eran similares a lo que ya se había anunciado tras algunas reuniones de la ONU y la OCDE", afirmó Lee Seong-yeob, profesor de la Escuela de Postgrado de Gestión de Tecnología de la Universidad de Corea, en Seúl. "No había nada nuevo".

Es importante celebrar una cumbre mundial sobre cuestiones de seguridad de la IA, dijo, pero será "considerablemente difícil" que todos los participantes lleguen a acuerdos, ya que cada país tiene intereses diferentes y distintos niveles de tecnologías e industrias nacionales de IA.

Mientras los gobiernos y los organismos mundiales estudian cómo regular la IA a medida que mejora en la realización de tareas realizadas por humanos, los desarrolladores de los sistemas de IA más potentes se están uniendo para establecer su propio enfoque compartido para fijar las normas de seguridad de la IA. Meta Platforms, empresa matriz de Facebook, y Amazon anunciaron el lunes que se unen al Frontier Model Forum, grupo fundado el año pasado por Anthropic, Google, Microsoft y OpenAI.

El informe provisional de un grupo de expertos sobre el estado de la seguridad de la IA, publicado el viernes para informar los debates en Seúl, identificó una serie de riesgos planteados por la IA de propósito general, incluido su uso malintencionado para aumentar la "escala y sofisticación" de los fraudes y estafas, potenciar la propagación de la desinformación o crear nuevas armas biológicas.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

El mal funcionamiento de los sistemas de IA podría propagar la parcialidad en ámbitos como la asistencia sanitaria, la contratación laboral y los préstamos financieros, mientras que el potencial de la tecnología para automatizar una gran variedad de tareas también plantea riesgos sistémicos para el mercado laboral, según el informe.

Corea del Sur espera aprovechar la cumbre de Seúl para tomar la iniciativa en la formulación de una gobernanza y unas normas mundiales para la IA. Pero algunos críticos afirman que el país carece de una infraestructura de IA lo suficientemente avanzada como para desempeñar un papel de liderazgo en tales cuestiones de gobernanza.