Un tema que retomamos y ponemos ante ustedes, porque es fundamental en el diseño de nuestro presente y futuro.
Durante décadas, la tecnología fue entendida como herramienta: neutral, instrumental, subordinada a la voluntad humana.
Esa idea empieza a romperse, no porque las máquinas hayan adquirido conciencia, sino porque su escala, opacidad y capacidad de influencia han rebasado los marcos tradicionales de responsabilidad. Y no es culpa de las máquinas.
El caso reciente difundido por Municipalidades, en la pluma de Fernando Incháustegui, señala que autoridades en Florida abrieron una investigación contra ChatGPT por su posible papel en un tiroteo universitario.
No debe leerse como un escándalo aislado ni como una exageración retórica. Debe leerse como lo que es: un punto de inflexión.
La frase del fiscal —“si fuera una persona, enfrentaría cargos por asesinato”— no es jurídicamente sostenible, pero sí políticamente reveladora.
Expone la incomodidad de los sistemas legales frente a una realidad que no terminan de comprender: ¿qué hacer cuando la decisión no es plenamente humana, pero tampoco es atribuible a una máquina en términos clásicos?
La respuesta fácil sería reducir el problema a “mal uso”. Es decir, culpar exclusivamente al usuario. Pero esa simplificación evade la pregunta estructural: ¿qué grado de responsabilidad tienen quienes diseñan, entrenan y despliegan estos sistemas?
Aquí es donde entra la discusión mexicana.
La iniciativa que comienza a delinearse en el país —todavía fuera del debate legislativo central— no intenta regular cada tecnología. Y eso, contra la intuición política, es un acierto.
En lugar de perseguir técnicas que quedarán obsoletas, propone un marco horizontal: regular impactos, no herramientas. Esto cambia el eje de la discusión, como bien lo apunta en sus posicionamientos públicos Marcelo García Almaguer en su cuenta de x.com.
Porque entonces el foco deja de estar en “la IA” como abstracción y se desplaza hacia sus zonas críticas:
Diagnósticos médicos.
Infraestructura energética.
Ciberseguridad.
Mercados laborales.
Procesos electorales.
En estos ámbitos, comenta el académico, el error es una decisión con consecuencias humanas, económicas o políticas. Y, por tanto, es un problema de poder.
El diseño regulatorio, que parece inspirar esta iniciativa, no surge en el vacío. Es un híbrido reconocible: por un lado, el modelo europeo, con su énfasis en derechos fundamentales, protección de datos y sanciones robustas; por otro, la lógica estadounidense de flexibilidad e innovación; y, en el horizonte, como advertencia implícita, el modelo chino de control total.
México, como suele ocurrir, intenta caminar entre esos tres polos. Y eso no es necesariamente negativo: ya lo ha hecho antes en otros ámbitos.
Pero hay una diferencia clave: mientras Europa regula desde la capacidad técnica y Estados Unidos desde el poder de mercado, México enfrenta un desafío adicional: la asimetría entre la ambición normativa y la capacidad institucional para implementarla.
Ahí es donde muchas leyes fallan.
En el plano discursivo, los llamados “derechos frente a la IA” suenan impecables: saber que interactúas con un sistema automatizado; entender cómo toma decisiones; proteger tu integridad. Sin embargo, llevados a la práctica, estos principios requieren traducción técnica.
“Saber” implica etiquetado y transparencia básica. “Entender” no significa acceder al razonamiento interno —que en estos sistemas no es transparente ni lineal—, sino contar con explicaciones suficientes para cuestionar resultados. “Proteger” implica algo mucho más exigente: establecer deberes de cuidado, mecanismos de prevención y, sobre todo, rutas claras de responsabilidad.
Al final, toda regulación seria responde a una sola pregunta: ¿quién paga el costo del error?
Y aquí es donde la discusión se vuelve incómoda.
Si el costo recae únicamente en el usuario, la regulación es
insuficiente. Si recae exclusivamente en la empresa, puede volverse inviable
o inhibir la innovación.
Si no recae en nadie, la ley es simbólica y, por tanto, un
espacio más de impunidad.
Y eso exige algo que rara vez aparece en el debate público: comprensión técnica real —lo sufrimos ya en Puebla con términos imprecisos que pretendían incorporarse en la ley y que daban al traste con la libertad de expresión— Sin ella, la conversación se degrada: de arquitectura a anécdota, de riesgo sistémico a miedo difuso, de gobernanza a moralismo.
De ahí la analogía: estamos frente a una especie de “Proyecto Manhattan digital”.
No porque estemos construyendo una bomba, sino porque estamos liberando una tecnología cuyo impacto no terminamos de dimensionar, con incentivos geopolíticos y económicos que aceleran su despliegue más allá de la reflexión ética.
A diferencia del siglo XX, esta vez la infraestructura no es física: es algorítmica. No se instala en un desierto, sino en la vida cotidiana. No explota en un instante: se despliega gradualmente, reconfigurando decisiones, percepciones y relaciones de poder.
Estamos frente a un cambio de paradigma con toda la lógica de transformación social que ello implica.
La pregunta no es si la IA es buena o mala. Reducir el debate a “bots” no solo es insuficiente: es peligroso.
La pregunta central —la misma que planteamos desde la primera entrega— es otra: ¿quién la diseña, bajo qué reglas y con qué mecanismos de rendición de cuentas?
Si el Congreso logra entender esto, la ley puede convertirse en un instrumento de equilibrio. Si no, será otra pieza normativa más: elegante en el papel, irrelevante en la práctica.
Porque en esta nueva etapa, el problema no es la
máquina. Es el marco político que decide cómo convivimos con ella.
