Anthropic, una compañía de investigación en inteligencia artificial, ha introducido un nuevo marco de transparencia focalizada para regular modelos de IA de frontera. Estos son sistemas a gran escala con un impacto y riesgo potencial significativo, como los modelos generativos avanzados, que han suscitado preocupaciones sobre su potencial daño social. Este marco busca distinguir y aplicar mayores obligaciones regulatorias a los modelos que superan ciertos umbrales de recursos computacionales, rendimiento de evaluación, gastos en investigación y desarrollo, y ingresos anuales. Al centrarse exclusivamente en las obligaciones de transparencia para los desarrolladores más grandes, la iniciativa busca proteger la innovación dentro de las startups más pequeñas e investigadores individuales para que no se vean indebidamente agobiados por los requisitos de cumplimiento.
El marco está cuidadosamente estructurado en torno a cuatro principios fundamentales: el alcance de su aplicación, los requisitos previos al despliegue, las obligaciones de transparencia y los mecanismos de cumplimiento. El alcance se limita a las organizaciones que desarrollan modelos de IA que cumplen con ciertos criterios avanzados, excluyendo explícitamente a los pequeños desarrolladores y startups al establecer umbrales financieros. Los requisitos previos al despliegue exigen la implementación de un Marco de Desarrollo Seguro (MDS), en el cual los desarrolladores evalúan los riesgos—desde escenarios potencialmente catastróficos que involucran amenazas químicas o radiológicas hasta acciones que se desvían de las intenciones del desarrollador—y preparan estrategias de mitigación. Los mandatos de transparencia requieren la publicación de los MDS y la documentación de las pruebas y evaluaciones de los modelos en formatos accesibles al público, aunque permitiendo la redacción de información propietaria. Los mecanismos de cumplimiento incluyen verificaciones contra informes falsos, la imposición de sanciones civiles por infracciones y un período de 30 días para rectificar fallas de cumplimiento.
Las partes interesadas, incluidas las grandes empresas tecnológicas que desarrollan estos modelos de frontera, enfrentarían presiones significativas de responsabilidad, influyendo probablemente en la dirección estratégica del despliegue e innovación de la IA. Al proporcionar a los reguladores una base consistente para evaluar sistemas de IA de alto riesgo, el marco podría establecer puntos de referencia para las políticas regulatorias globales. Las entidades de IA más pequeñas, investigadores y desarrolladores se benefician al evitar costosas obligaciones de cumplimiento, preservando así la innovación.
El marco de Anthropic representa un paso regulador significativo, indicando una progresión sobria hacia la gestión de los impactos sociales más amplios de la IA sin sofocar el avance tecnológico. A medida que las respuestas políticas a la rápida evolución de la IA continúan desarrollándose en todo el mundo, el marco podría informar futuras deliberaciones y adaptaciones. La naturaleza dinámica y en evolución del marco sugiere una postura reguladora adaptable, potencialmente guiando a legisladores y empresas tecnológicas en la mitigación efectiva de los riesgos de la IA. El diálogo continuo entre reguladores y desarrolladores de IA probablemente refinará estas estrategias para acomodar la rápida evolución de las tecnologías de IA.