×

Microsoft mantiene equipo de seguridad interno para probar sus propios productos de inteligencia artificial

Microsoft mantiene equipo de seguridad interno para probar sus propios productos de inteligencia artificial

Por Redacción

Redmond, 20 de marzo de 2026.- Microsoft mantiene activo un equipo multidisciplinario conocido como ‘red team’ o equipo rojo, dedicado a hackear sus propios productos de inteligencia artificial para identificar vulnerabilidades antes de su lanzamiento. Esta práctica, que la empresa atribuye haber pionerizado desde 2021, forma parte de su estrategia de seguridad y cumplimiento de principios éticos definidos públicamente.

Brad Smith, presidente de Microsoft, explicó que la compañía opera bajo principios que actúan como guardarraíles para el desarrollo tecnológico. “Tenemos principios, los definimos y los publicamos. Por definición, esos principios crear guardarraíles. Y nos mantenemos en la carretera dentro de ellos”, declaró el ejecutivo. Smith enfatizó que la gestión de la tecnología no solo implica decidir cuándo usarla, sino también determinar cuándo no debe ser utilizada.

Según reportes, este equipo de seguridad tiene como función principal someter a prueba los sistemas de la empresa mediante métodos de hacking simulado, una metodología con origen militar que se ha aplicado en ciberseguridad durante décadas. Aunque la investigación no detalla la composición específica del grupo ni los productos concretos que están siendo evaluados en esta fecha, la existencia del equipo refleja la postura de Microsoft frente a los riesgos asociados con la inteligencia artificial.

La operación de estos equipos de prueba ocurre en un contexto de debate global sobre el uso de la IA en ámbitos sensibles, incluyendo aplicaciones militares. Antecedentes recientes en la industria muestran tensiones similares, como la demanda de Anthropic contra el Pentágono y la cancelación de un acuerdo entre Microsoft y el departamento de defensa estadounidense en 2021, lo que subraya la relevancia de los mecanismos de control interno que las grandes tecnológicas implementan.

La estrategia de Microsoft busca asegurar que sus desarrollos se mantengan dentro de los márgenes éticos establecidos por la propia corporación, utilizando la autocrítica técnica como herramienta de prevención. La compañía continúa publicando sus principios rectores como base para la toma de decisiones sobre la implementación de sus herramientas de inteligencia artificial en el mercado.

Publicar comentario

Tal vez te perdiste