Las 'Big Tech' de la IA destinan 10 millones de dólares para la seguridad de su investigación

Google, Microsoft, OpenAI y Anthropic habían creado este verano un grupo de trabajo para promover los avances seguros de esta tecnología

La inteligencia artificial da un nuevo paso para parecer más humana: ahora puede generalizar como nosotros

Sam Altman, cofundador de OpenAI REUTERS

Los gigantes tecnológicos de la inteligencia artificial (IA) han anunciado esta semana la creación de un fondo dedicado a la seguridad de los desarrollos en ese campo, en concreto para que los investigadores independientes puedan evaluar, probar y crear herramientas de los modelos más ... potentes. Es el primer comunicado —y primer movimiento económico— que realizan Anthropic, Google, Microsoft y OpenAI para su organización 'Frontier Model Forum', que va acompañado del nombramiento de un director ejecutivo. Este grupo de trabajo se fundó este pasado julio, con la intención de poner vallas al campo: controlar el potencial de la IA para evitar usos perjudiciales para la sociedad.

Sin embargo, la agrupación no empieza con buen pie. La financiación inicial ronda los 10 millones de dólares. Una miseria cuando todas estas empresas se mueven en valoraciones e inversiones que rondan los miles de millones de dólares: solo Microsoft invirtió en OpenAI 10.000 millones; y Anthropic está en conversaciones para recibir más de 3.000 millones de Google y Amazon.

Las empresas creen que con esa cifra será suficiente para cumplir parte de los compromisos firmados con la Casa Blanca sobre crear una IA responsable: «Los compromisos voluntarios que firmamos la Casa Blanca incluían el compromiso de facilitar el descubrimiento por parte de terceros y la notificación de vulnerabilidades en nuestros sistemas de IA. Consideramos que el Fondo de Seguridad de la IA es una parte importante para cumplir este compromiso al proporcionar financiación a la comunidad externa para evaluar y comprender mejor los sistemas más avanzados», ha explicado la organización en una nota de prensa.

Para liderar el grupo de trabajo, las compañías tecnológicas han escogido a un gurú de la seguridad de la IA, Chris Meserole, antiguo director del centro de investigación Brookings Institution y experto en estas herramientas desde 2018. «Los modelos de IA más potentes son muy prometedores para la sociedad, pero para aprovechar su potencial necesitamos comprender mejor cómo desarrollarlos y evaluarlos de forma segura», ha dicho Meserole.

Con esta iniciativa el objetivo del Forum está claro: cubrir el principal problema de los modelos generativos, su potencial fuera de límites que escapa al conocimiento de las empresas que los crean. No quieren que proliferen las actividades delictivitas que ya han comenzado a surgir en la red.

Artículo solo para suscriptores

Accede sin límites al mejor periodismo

Tres meses 1 Al mes Sin permanencia Suscribirme ahora
Opción recomendada Un año al 50% Ahorra 60€ Descuento anual Suscribirme ahora

Ver comentarios