Las asociaciones entre las compañías de IA y el gobierno de los Estados Unidos se están expandiendo, incluso cuando el futuro de la seguridad y la regulación de la IA sigue sin estar clara.
El viernes, Anthrope, OpenAi y otras compañías de IA reunieron a 1,000 científicos para probar sus últimos modelos. El evento, organizado por Operai y llamado una sesión de AI Jam, dio a los científicos en nueve laboratorios al día para usar varios modelos, incluidos O3-Mini de OpenAI y Claude 3.7 Sonnet, el último lanzamiento de Anthrope, para avanzar en su investigación.
También: Openai finalmente presenta GPT-4.5. Esto es lo que puede hacer
En su cuenta anuncioAnthrope dijo que la sesión “ofrece una evaluación más auténtica del potencial de IA para gestionar las complejidades y matices de la investigación científica, así como evaluar la capacidad de la IA para resolver desafíos científicos complejos que generalmente requieren un tiempo y recursos significativos”.
La sesión de AI JAM es parte de los acuerdos existentes entre el gobierno de los Estados Unidos, Anthrope y OpenAI. En abril, antrópico asociado Con el Departamento de Energía (DOE) y la Administración Nacional de Seguridad Nuclear (NNSA) a Purple-Workforce Claude 3 Sonnet, probando si revelaría información nuclear peligrosa. El 30 de enero, Openai anunciado Se estaba asociando con los Laboratorios Nacionales del DOE para “sobrealimentar su investigación científica utilizando nuestros últimos modelos de razonamiento”.
El Laboratorios nacionalesuna crimson de 17 sitios de investigación y prueba científicos distribuidos en todo el país, investigan los temas desde la seguridad nuclear hasta las soluciones del cambio climático.
Los científicos participantes también fueron invitados a evaluar las respuestas de los modelos y darles a las empresas “comentarios para mejorar los sistemas de IA futuros para que estén en mente con las necesidades de los científicos”, dijo OpenAi en su anuncio para el evento. La compañía señaló que compartiría los hallazgos de la sesión sobre cómo los científicos pueden aprovechar mejor los modelos de IA.
También: todo lo que necesitas saber sobre Alexa+, el nuevo asistente de IA generativo de Amazon
En el anuncio, OpenAi incluyó una declaración del Secretario de Energía Chris Wright que comparó el desarrollo de IA con el Proyecto Manhattan como el próximo “esfuerzo patriótico” del país en ciencia y tecnología.
La asociación más amplia de OpenAI con los Laboratorios Nacionales tiene como objetivo acelerar y diversificar el tratamiento y la prevención de la enfermedad, mejorar la seguridad cibernética y nuclear, explorar energías renovables y avanzar en la investigación física. La Asociación AI Jam Session y Nationwide Labs se dirige junto a varias otras iniciativas entre las empresas de IA privadas y el gobierno, incluido el gobierno de ChatGPT, el chatbot a medida de OpenAI para agencias locales, estatales y federales, y Mission Stargate, un plan de inversión de centros de datos de $ 500 mil millones.
Estos acuerdos ofrecen pistas sobre cómo la estrategia de IA de EE. UU. Está desestimando la seguridad y la regulación bajo la administración Trump. Aunque aún no han aterrizado, el private corta en el Instituto de Seguridad de AI, parte de los disparos más amplios de Doge, se rumorea durante semanas, y el jefe del Instituto ya ha renunciado. El plan de acción AI de la administración precise aún no se ha anunciado, dejando el futuro de la supervisión de la IA en el limbo.
También: el jefe de seguridad de la IA ha renunciado. ¿Qué ahora?
Las asociaciones como estas, que colocan los últimos desarrollos en IA directamente en manos de las iniciativas gubernamentales, podrían volverse más comunes a medida que la administración Trump trabaja más estrechamente con las compañías de IA y deprime la participación de los regalos de terceros. El riesgo es aún menos supervisión de cuán poderosos y seguros son los nuevos modelos (la regulación ya es naciente en los EE. UU., A medida que se acelera la implementación.