Altman, consejero delegado de OpenAI, rechaza educadamente el puesto de máximo regulador de la IA: "Me encanta mi trabajo actual".
Me encanta mi trabajo actual", dice Sam Altman
{{#rendered}} {{/rendered}}
El director general de la empresa que lanzó ChatGPT al mundo dijo el martes que no estaba interesado en convertirse en el máximo regulador del gobierno federal en materia de tecnología de inteligencia artificial.
Se preguntó al consejero delegado Sam Altman y a otros testigos en un subcomité judicial del Senado qué harían para garantizar que el gobierno tiene un control firme sobre cómo se desarrolla y despliega la IA, y Altman dijo que su primer paso sería crear una nueva agencia federal.
"Formaría una nueva agencia que conceda licencias a cualquier esfuerzo que supere una determinada escala de capacidades y pueda retirar esa licencia y garantizar el cumplimiento de las normas de seguridad", dijo en respuesta a una pregunta del senador republicano John Kennedy.
{{#rendered}} {{/rendered}}
Altman dijo que también crearía un conjunto de normas de seguridad de aplicación federal para la IA, y exigiría que las empresas de IA se sometieran a auditorías independientes para garantizar su cumplimiento.
"¿Estarías cualificado, si promulgáramos esas normas, para administrarlas?" preguntó Kennedy a Altman.
{{#rendered}} {{/rendered}}
"Me encanta mi trabajo actual", dijo Altman, y añadió que enviaría recomendaciones de personas cualificadas para dirigir una nueva agencia. Tras ser presionado sobre cuánto dinero gana en OpenAI, Altman dijo que sólo gana lo suficiente para tener seguro médico y que no tiene ninguna participación en OpenAI.
"Hago esto porque me encanta", dijo Altman.
{{#rendered}} {{/rendered}}
La cuestión de si es necesaria una nueva agencia federal fue un tema que surgió varias veces en la audiencia del Senado. Tanto Altman como el profesor emérito de la Universidad de Nueva York Gary Marcus coincidieron en que es necesaria una nueva agencia.
Sin embargo, Christina Montgomery, funcionaria de IBM y directora de privacidad y confianza de la empresa, se mostró contraria a la creación de una nueva agencia y afirmó que los riesgos de la IA deberían gestionarse utilizando la infraestructura existente del gobierno federal. También argumentó que la IA debería regularse en función de cómo se utilice, y que deberían imponerse normas más estrictas cuando la IA se utilice para aplicaciones más arriesgadas.
{{#rendered}} {{/rendered}}
HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
Marcus se mostró muy alarmado ante la perspectiva de la tecnología de IA emergente, y en ocasiones argumentó que no se debe confiar en las empresas que construyen IA para que hagan por sí mismas recomendaciones sobre cómo regular la IA. También recomendó que se desplegaran científicos independientes para garantizar de forma independiente que las empresas cumplen las normas sobre IA.