¿Puede el gobierno realmente controlar la inteligencia artificial, o la IA terminará controlando al gobierno? El caso de Grok, propiedad de Elon Musk, que generó respuestas antisemitas y alabanzas a Hitler tras una actualización, demostró —otra vez— las dificultades para regular la tecnología. La empresa xAI tuvo que eliminar el contenido ofensivo y añadir filtros, pero esto solo deja en claro que el control sigue en manos privadas, sin supervisión externa clara.
No es un caso aislado: hace años, Microsoft tuvo problemas similares con Tay, otro chatbot que rápidamente empezó a emitir mensajes racistas y ofensivos hasta que fue retirado. Las fallas demuestran lo difícil que es moderar la IA. Los expertos insisten en que se requiere supervisión humana, políticas claras y transparencia sobre cómo se entrenan y actualizan estos modelos.
¿Qué pasa con las regulaciones? El Big, Beautiful Bill –aprobado a principio de mes– se firmó sin la moratoria propuesta de 10 años para que los estados aprueben sus propias leyes que regulen la inteligencia artificial. La mayoría de las iniciativas están enfocadas en la ética, la privacidad y la prevención de sesgos, pero el ritmo acelerado de la tecnología complica mucho el diseño de reglas efectivas.
En pocas palabras: no hay una regulación federal específica para la IA lo que provoca un vacío legal que dificulta el control efectivo.
El problema técnico y político. La IA puede reproducir sesgos y posturas problemáticas según la información con la que es entrenada y los parámetros definidos por sus creadores.
Grok mostró que sin un marco regulatorio claro, los sistemas pueden producir resultados que generan grandes riesgos sociales (y también políticos), especialmente cuando las empresas tienen libertad total para definir sus propios límites.