Google, Meta y Apple crearán “equipos rojos” para abordar los riesgos de la inteligencia artificial

Google, Meta y Apple crearán “equipos rojos” para abordar los riesgos de la inteligencia artificial

Más de 200 compañías tecnológicas, organizaciones especializadas y universidades en Estados Unidos se unieron para conformar el AI Safety Institute Consortium (AISIC), cuyo propósito es promover las prácticas responsables en la investigación y desarrollo de sistemas de inteligencia artificial. El consorcio está conformado por peces gordos de la industria, entre ellos Apple, Amazon, Google, Meta y Microsoft.

Los anuncios oficiales apuntan al armado de “equipos rojos”, una terminología que se remonta a la Guerra Fría y apunta a la generación de experiencias extremas, para saber cómo actuar ante casos urgentes.

-EPUBS ADVERTISEMENT-
Tecnológicas estadounidenses forman un consorcio para regular a la inteligencia artificial
El AISIC publicó esta semana la lista de miembros, que superan los 200. Además de las firmas mencionadas, aparecen otras como Nvidia, IBM, HP y la especializada en inversiones, JP Morgan Chase. Además, figuran entidades académicas con reputación en Estados Unidos, entre ellas la Universidad Carnegie Mellon, la Universidad de Cornell, la de Nueva York y el Instituto Tecnológico de Massachusetts. También hay agrupaciones reconocidas en el sector, como la Free Software Foundation,y el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE). El listado completo puede ser consultado en este enlace.

La nueva inteligencia artificial inició su boom a comienzos de 2023. (Foto: Adobe Stock)
La nueva inteligencia artificial inició su boom a comienzos de 2023. (Foto: Adobe Stock)
Por: Lee – stock.adobe.com
Gina Raimondo, secretaria de Comercio de Estados Unidos, fue la encargada de anunciar a los nuevos miembros del grupo, y señaló que los participantes tendrán que seguir las acciones anteriormente indicadas por la orden ejecutiva del presidente de aquel país, Joe Biden, relativa a los avances en inteligencia artificial.

“El gobierno de Estados Unidos tiene un papel importante que desempeñar en el establecimiento de estándares y el desarrollo de las herramientas que necesitamos para mitigar los riesgos y aprovechar el inmenso potencial de la inteligencia artificial”, dijo Raimondo.

“El gobierno de Estados Unidos tiene un papel importante que desempeñar en el establecimiento de estándares y el desarrollo de las herramientas que necesitamos para mitigar los riesgos y aprovechar el inmenso potencial de la inteligencia artificial”, dijo Gina Raimondo.
“El gobierno de Estados Unidos tiene un papel importante que desempeñar en el establecimiento de estándares y el desarrollo de las herramientas que necesitamos para mitigar los riesgos y aprovechar el inmenso potencial de la inteligencia artificial”, dijo Gina Raimondo.
Informadas en octubre, aquellas directrices fueron de “amplio espectro” por lo que este consorcio se centrará en llevarlas a la práctica. Eso incluye la formación de equipos especializados, evaluaciones, gestión de riesgos, seguridad y protección. También prevén que se inserten marcas de agua en contenido sintético, a fin de informar su procedencia no-humana.

El equipo rojo de la inteligencia artificial: un concepto que proviene de la Guerra Fría
Tal como señala el sitio Engadget, las referencias al concepto “Red Teaming” se remontan a la Guerra Fría acontecida el siglo pasado, que tuvo como caras visibles a Estados Unidos y a la Unión Soviética. En concreto, el plan es generar simulaciones extremas. En tales experiencias, al enemigo se lo llama “equipo rojo” que, aquí, será un sistema de IA maligno y persistente. Por ejemplo, se enseñarán a una IA prácticas de piratería, vulneración de datos confidenciales, etcétera. Así, los especialistas sabrán como diseñar protecciones eficientes.

El consorcio integrado por Apple, Google y Meta, entre otros gigantes de la tecnología, también enfrentará el desafío de implementar las marcas de agua para la IA de la que habló Biden el año pasado. El propósito es garantizar que las audiencias puedan identificar fácil y rápidamente el contenido que se genera con herramientas generativas. La clave es la transparencia, relevante para combatir aspectos indeseados en la escena digital, como la desinformación y la difamación.

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *