Por Redacción

Redmond, 20 de marzo de 2026.- Microsoft mantiene operativo un equipo multidisciplinario conocido como ‘red team’ o equipo rojo, dedicado a hackear sus propios productos de inteligencia artificial con el fin de probar su seguridad y robustez antes de su lanzamiento. Esta práctica, que la empresa asegura haber pionerizado al formar dicho grupo en 2021, se lleva a cabo en sus instalaciones principales y busca identificar vulnerabilidades mediante ataques simulados.

Brad Smith, presidente de Microsoft, destacó la relevancia de contar con principios definidos y publicados que actúen como guardarraíles para el desarrollo tecnológico. “Tenemos principios, los definimos y los publicamos. Por definición, esos principios crearán guardarraíles. Y nos mantenemos en la carretera dentro de ellos”, afirmó el ejecutivo. Smith añadió que la gestión responsable de la IA no se trata solo de determinar cuándo debe usarse la tecnología, sino también de establecer claramente cuándo no debe utilizarse.

El enfoque del ‘red teaming’ tiene sus raíces en prácticas militares y de ciberseguridad aplicadas desde hace décadas, adaptadas ahora para el entorno de la inteligencia artificial. Aunque la investigación no detalla la composición específica del equipo ni los métodos técnicos exactos que emplean, se identifica como un grupo multidisciplinario encargado de poner a prueba los sistemas de la compañía.

Esta estrategia de seguridad interna surge en un contexto de debate global sobre el uso de la IA en aplicaciones bélicas y gubernamentales. Antecedentes relevantes incluyen la cancelación de un acuerdo entre Microsoft y el Pentágono en 2021, así como acciones legales recientes de otras empresas del sector, como Anthropic, que ha demandado al Departamento de Defensa de Estados Unidos por el uso de sus modelos.

La existencia de este equipo de pruebas refleja la postura de Microsoft de priorizar la contención de riesgos mediante la autoevaluación agresiva de sus productos. La compañía busca con estos mecanismos asegurar que sus desarrollos de inteligencia artificial operen dentro de los límites éticos y de seguridad establecidos por sus propios principios corporativos.

Por Editor

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *