Nuestro sitio web utiliza cookies para mejorar y personalizar su experiencia, así como para mostrar anuncios (si los hubiera). Nuestro sitio web también puede incluir cookies de terceros, como Google Adsense, Google Analytics y YouTube. Al utilizar el sitio web, usted acepta el uso de cookies. Hemos actualizado nuestra Política de privacidad. Haga clic en el botón para consultar nuestra Política de privacidad.

OpenAI, DeepMind y Anthropic le darán al Reino Unido acceso temprano a modelos fundamentales para la investigación de seguridad de IA

OpenAI, DeepMind y Anthropic le darán al Reino Unido acceso temprano a modelos fundamentales para la investigación de seguridad de IA

Tras el anuncio del gobierno del Reino Unido la semana pasada de que planeaba celebrar una cumbre de seguridad de IA «global» este otoño, el primer ministro Rishi Sunak inauguró la London Tech Week con otra información: informar a los asistentes a la conferencia que OpenAI, Google DeepMind y Anthropic tienen se comprometió a proporcionar «acceso temprano o prioritario» a sus modelos de IA para respaldar la evaluación y la investigación de seguridad.

Sunak ha tenido una conversión acelerada sobre la seguridad de la IA en las últimas semanas, luego de una serie de intervenciones de los gigantes de la IA que advirtieron sobre los riesgos existenciales e incluso de extinción que la tecnología podría presentar si no se regula adecuadamente.

«Vamos a hacer el punto [AI] investigación de seguridad aquí en el Reino Unido”, prometió hoy Sunak. “Con 100 millones de libras esterlinas para nuestro grupo de trabajo de expertos, estamos gastando más dinero en seguridad de IA que cualquier otro gobierno.

Este grupo de trabajo de seguridad de IA se centrará en los modelos básicos de IA, el el gobierno también dijo.

«Trabajamos con laboratorios fronterizos: Google DeepMind, OpenAI y Anthropic», agregó Sunak. «Y me complace informar que se comprometieron a brindar acceso temprano o prioritario a los modelos con fines de investigación y seguridad para ayudar a construir mejores evaluaciones y ayudarnos a comprender mejor las oportunidades y los riesgos de estos sistemas».

El primer ministro también reiteró su anuncio anterior de la próxima cumbre de seguridad de IA, buscando comparar el esfuerzo con las conferencias climáticas de la COP que tienen como objetivo obtener la aceptación global para abordar el cambio climático.

“Así como nos unimos a través de la COP para abordar el cambio climático, el Reino Unido será el anfitrión de la primera Cumbre Global de Seguridad de IA a finales de este año”, dijo, y agregó: “Quiero hacer del Reino Unido no solo el hogar intelectual, sino también el hogar geográfico, de la regulación global de seguridad de la IA”.

Evangelizar la seguridad de la IA es un cambio marcado para el gobierno de Sunak.

Recientemente, en marzo, estaba en modo animador de IA completo, diciendo en un libro blanco mientras promocionaba «un enfoque favorable a la innovación para la regulación de la IA”. El enfoque descrito en el documento ha minimizado las preocupaciones de seguridad al evitar la necesidad de leyes de IA a medida (o un organismo de control de IA dedicado) a favor de establecer algunos «principios flexibles». El gobierno también ha sugerido que la supervisión de las aplicaciones de IA debe ser realizada por los reguladores existentes, como el organismo de control antimonopolio y la autoridad de protección de datos.

Avance rápido unos meses y Sunank ahora está hablando de querer que el Reino Unido albergue un organismo de control global de seguridad de IA. O, al menos, que quiere que el Reino Unido se apropie de la conversación sobre seguridad de la IA al dominar la investigación sobre cómo evaluar los resultados de los algoritmos de aprendizaje.

Los rápidos desarrollos en IA generativa combinados con declaraciones públicas de una variedad de gigantes tecnológicos y figuras de la industria de IA que advierten que la tecnología podría salirse de control parecen haber llevado a una rápida revisión de la estrategia de Downing Street.

También vale la pena señalar que los gigantes de la IA han escuchado a Sunak en persona en las últimas semanas, con reuniones entre el primer ministro y los directores ejecutivos de OpenAI, DeepMind y Anthropic poco antes de que el estado de ánimo del gobierno sobre la IA no cambie.

Si este trío de gigantes de la IA cumple con sus compromisos de proporcionar al Reino Unido acceso avanzado a sus modelos, existe la posibilidad de que el país lleve a cabo una investigación para desarrollar técnicas efectivas de evaluación y auditoría, incluso antes de cualquier régimen de supervisión legislativa que requiera transparencia algorítmica. se ha convertido en otra parte (no se espera que el proyecto de ley de IA de la Unión Europea entre en vigor hasta 2026, por ejemplo; aunque los servicios digitales de la UE ya están en vigor y ya requieren cierta transparencia algorítmica de los gigantes tecnológicos).

Al mismo tiempo, existe el riesgo de que el Reino Unido se vuelva vulnerable a la captura de la industria de sus incipientes esfuerzos de seguridad de IA. Y si los gigantes de la IA logran dominar la conversación sobre la investigación de seguridad de la IA al proporcionar acceso selectivo a sus sistemas, podrían estar en una buena posición para dar forma a las futuras reglas de IA del Reino Unido que se aplicarían a sus negocios.

La estrecha participación de los gigantes tecnológicos de IA en la investigación financiada con fondos públicos sobre la seguridad de sus tecnologías comerciales antes de que se les aplicaran marcos de seguridad de IA legalmente vinculantes sugiere que tendrán al menos menos la capacidad de definir cómo se considera la seguridad de IA y qué componentes, temas y temas se priorizan (y por lo tanto se minimizan). E influyendo en el tipo de búsqueda que se produce, ya que esto puede depender del grado de acceso que brinden.

Mientras tanto, los especialistas en ética de la IA han advertido durante mucho tiempo que los temores que acaparan los titulares sobre los riesgos que las IA ‘superinteligentes’ podrían representar para los humanos están ahogando las discusiones sobre el daño real que ya están causando las tecnologías de IA existentes, incluidos los prejuicios y la discriminación, la invasión de la privacidad, la infracción de derechos de autor. y explotación de los recursos ambientales.

Entonces, si bien el gobierno del Reino Unido puede considerar que los gigantes de la IA se unen como un truco de relaciones públicas, si la cumbre de la IA y los esfuerzos más amplios de seguridad de la IA van a producir resultados sólidos y creíbles, debe garantizar la participación de investigadores independientes, grupos de la sociedad civil. y grupos que están desproporcionadamente expuestos a los daños causados ​​por la automatización, no solo para anunciar su plan de asociación entre las «brillantes empresas de IA y académicos locales, dado la investigación académica ya depende a menudo de la financiación de los gigantes tecnológicos.

Por Emily Carter

Entradas relacionadas