Las 'Big Tech' de la IA destinan 10 millones de dólares para la seguridad de su investigación
Google, Microsoft, OpenAI y Anthropic habían creado este verano un grupo de trabajo para promover los avances seguros de esta tecnología
La inteligencia artificial da un nuevo paso para parecer más humana: ahora puede generalizar como nosotros
Madrid
Esta funcionalidad es sólo para registrados
Iniciar sesiónLos gigantes tecnológicos de la inteligencia artificial (IA) han anunciado esta semana la creación de un fondo dedicado a la seguridad de los desarrollos en ese campo, en concreto para que los investigadores independientes puedan evaluar, probar y crear herramientas de los modelos más ... potentes. Es el primer comunicado —y primer movimiento económico— que realizan Anthropic, Google, Microsoft y OpenAI para su organización 'Frontier Model Forum', que va acompañado del nombramiento de un director ejecutivo. Este grupo de trabajo se fundó este pasado julio, con la intención de poner vallas al campo: controlar el potencial de la IA para evitar usos perjudiciales para la sociedad.
Sin embargo, la agrupación no empieza con buen pie. La financiación inicial ronda los 10 millones de dólares. Una miseria cuando todas estas empresas se mueven en valoraciones e inversiones que rondan los miles de millones de dólares: solo Microsoft invirtió en OpenAI 10.000 millones; y Anthropic está en conversaciones para recibir más de 3.000 millones de Google y Amazon.
Las empresas creen que con esa cifra será suficiente para cumplir parte de los compromisos firmados con la Casa Blanca sobre crear una IA responsable: «Los compromisos voluntarios que firmamos la Casa Blanca incluían el compromiso de facilitar el descubrimiento por parte de terceros y la notificación de vulnerabilidades en nuestros sistemas de IA. Consideramos que el Fondo de Seguridad de la IA es una parte importante para cumplir este compromiso al proporcionar financiación a la comunidad externa para evaluar y comprender mejor los sistemas más avanzados», ha explicado la organización en una nota de prensa.
Para liderar el grupo de trabajo, las compañías tecnológicas han escogido a un gurú de la seguridad de la IA, Chris Meserole, antiguo director del centro de investigación Brookings Institution y experto en estas herramientas desde 2018. «Los modelos de IA más potentes son muy prometedores para la sociedad, pero para aprovechar su potencial necesitamos comprender mejor cómo desarrollarlos y evaluarlos de forma segura», ha dicho Meserole.
APÚNTATE AL CANAL DE WHATSAPP DE ABC
Con esta iniciativa el objetivo del Forum está claro: cubrir el principal problema de los modelos generativos, su potencial fuera de límites que escapa al conocimiento de las empresas que los crean. No quieren que proliferen las actividades delictivitas que ya han comenzado a surgir en la red.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para registrados
Iniciar sesiónEsta funcionalidad es sólo para suscriptores
Suscribete