Inteligencia artificial en la Provincia de Buenos Aires

Cómo la Provincia de Buenos Aires busca regular la inteligencia artificial en la gestión estatal — y por qué eso puede marcar una diferencia en la pelea contra la privatización tecnológica.

Por qué importa esta regulación

La sanción de la Resolución Nº 9‑SSGDMGGP/2025 por la Subsecretaría de Gobierno Digital de la Provincia de Buenos Aires marca un hito en la regulación de tecnología en el Estado. No se trata solo de adaptar un reglamento técnico, sino de disputar el sentido: ¿la inteligencia artificial será un instrumento de dominación y extractivismo, o una herramienta al servicio de los derechos ciudadanos, la soberanía y la justicia social?

Lejos del modelo de desregulación y externalización defendido por muchos gobiernos neoliberales, esta normativa apuesta por un Estado fuerte, responsable, que regula, audita, capacita y prioriza la dignidad humana. Y lo hace con un marco ético, político y de derechos donde la IA se coloca al servicio del bien común.

Qué establece la resolución: los principios fundamentales

La regulación fija los principios que deben guiar cualquier sistema de IA en el ámbito público bonaerense:

  • Centralidad de la persona humana: la IA no decide sola; siempre debe haber supervisión humana.
  • Respeto a los derechos humanos y valores democráticos: equidad, diversidad, no discriminación, justicia social, protección laboral.
  • Privacidad, autodeterminación informativa y protección de datos personales — especialmente si son sensibles.
  • Transparencia, trazabilidad y auditabilidad: los sistemas deben poder explicarse y revisarse, para evitar “cajas negras”.
  • Seguridad: para prevenir accesos indebidos, manipulación o usos maliciosos.
  • Inclusión social y digital: garantizar que el acceso a los beneficios de la IA no profundice desigualdades.
  • Sustentabilidad ambiental y fomento de la innovación responsable.
  • Capacitación pública permanente: formar al personal estatal para que la tecnología trabaje con criterios democráticos.
Modelo MileiModelo Provincia de Buenos Aires
La IA como negocio privado, eficiencia sin derechosLa IA como herramienta pública, al servicio de la ciudadanía
Externalización tecnológica, dependenciaSoberanía tecnológica y gobernanza estatal
Reducción del Estado, “el mercado regula”Estado garante: regula, controla, capacita
Opacidad algorítmicaTransparencia, trazabilidad y supervisión humana
Exclusión digital como daño colateralInclusión digital como derecho

Riesgos de la IA: del spam al «puntaje social«

La norma distingue distintos niveles de riesgo, lo que permite modular los requisitos según el impacto potencial:

  • Riesgo nulo: sistemas de bajo impacto (como filtros de spam).
  • Riesgo limitado: por ejemplo, chatbots simples (si no manejan datos sensibles).
  • Alto riesgo: sistemas que pueden afectar derechos fundamentales — identificación biométrica, justicia, empleo, infraestructura crítica, etc.
  • Riesgo inaceptable: aquellos que necesariamente deben ser prohibidos — sistemas que usen técnicas subliminales, manipulación de personas vulnerables o “puntajes sociales” que segmenten población.

Para los sistemas de alto riesgo, la norma exige evaluación de impacto, gobernanza de datos, mitigación de sesgos y controles rigurosos. Para los de riesgo inaceptable, su uso queda expresamente prohibido.

Una normativa política: soberanía tecnológica y Estado social

Este marco no es solo técnico, es profundamente político. Contrapone dos visiones:

  1. La IA como negocio privado, externalizado, opaco, desligado del control ciudadano.
  2. La IA como infraestructura pública, regulada, transparente, al servicio de derechos, soberanía y justicia social.

La resolución bonaerense apuesta por el segundo camino. Exige que el Estado controle sus datos, supervise sus sistemas, capacite a su personal y proteja a la ciudadanía. Significa que la modernización no puede ser una excusa para precarizar, despersonalizar o privatizar servicios.

Esto tiene implicancias concretas en la pelea por la soberanía tecnológica: si se administra con criterios populares, los datos públicos dejan de ser mercancía, y la transformación digital puede devenir en empoderamiento colectivo.

Limitaciones y desafíos reales

Como toda norma, su valor depende de su implementación. Su potencia política se verá si:

  • se construye infraestructura autónoma (datacenters) para correr los sistemas de IA
  • hay recursos reales para auditar y regular los sistemas de IA
  • se construyen capacidades técnicas y humanas en el Estado
  • se evita la tercerización innecesaria de sistemas a empresas privadas

Sin esto, la regulación podría quedar en una declaración de principios con poco impacto real.

Una herramienta clave para una Argentina en disputa digital

En un momento donde los datos privados y públicos se disputan entre plataformas tecnológicas globales, megaproyectos extractivistas y Estados debilitados, esta regulación representa una trinchera política. Desde allí se reivindica un proyecto distinto: un Estado presente, soberano, que garantice derechos, inclusión y democracia en la era digital.

Porque la pregunta ya no es si hay IA en el Estado, sino cómo se usa — y quién la controla.

Qué significa para la ciudadanía

  • Transparencia real: saber cuándo un sistema es IA y qué hace.
  • Protección de datos personales — especialmente de grupos vulnerables.
  • Menor riesgo de discriminación algorítmica.
  • Posibilidad de acceso igualitario a servicios públicos digitalizados.
  • Un Estado responsable, con control democrático sobre tecnología.
Flyer de nota de regulación de IA en la Provincia de Buenos Aires por Viento Sur

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio