«Queremos que los algoritmos sean auditables»

📲 Por primera vez, la Provincia de Buenos Aires decidió regular el uso de la Inteligencia Artificial mediante un decreto. ¿Qué implica esto? El Grito del Sur habló con Sandra D’Agostino, subsecretaria de Gobierno Digital de PBA.
04/12/2025

Mediante la Resolución 9/2025 de la Subsecretaría de Gobierno Digital, la Provincia de Buenos Aires fijó por primera vez un marco obligatorio para regular el desarrollo, la implementación y el uso de sistemas de inteligencia artificial (IA). De esta forma, se busca establecer un parámetro de seguridad ante los riesgos del uso indebido de la IA y garantizar la protección de los derechos humanos de la ciudadanía. Este debate y la investigación que conlleva se vienen llevando a cabo hace años y tiene su inspiración en las normativas europeas. A su vez establece una referencia para municipios y provincias que se encuentran implementando el uso de estas tecnologías en trámites, seguridad, salud y gestión de datos.

“Nos tenemos que asegurar justamente que estos algoritmos puedan ser auditables, ya sea por nosotros o por algún observatorio que pensamos en formar conformado por diferentes entes, como universidades, que no haya una sesgo discriminatorio”, declaró a El Grito del Sur Sandra D´Agostino, subsecretaria de Gobierno Digital de la Provincia de Buenos Aires. “Hay casos internacionales como el de Amazon, que en la búsqueda de CO nunca quedaban mujeres porque directamente el modelo las iba descartando porque no estaba entrenado para tenerlas en cuenta”, contó D´Agostino.

El documento cuenta con ocho puntos principales, entre los cuales están: la neutralidad tecnológica, la centralidad de la persona humana, el respeto por los derechos humanos, la inclusión, la sostenibilidad ambiental, la privacidad y la autodeterminación informativa, junto con la trazabilidad, responsabilidad demostrada y transparencia. Además, se establece que los agentes que utilicen una IA deberán hacerlo de forma ética y profesional, y que se deberá informar al usuario cuando esté siendo atendido por la IA. “Que una IA sea transparente significa que posee un grado de comprensibilidad e interpretabilidad inteligible para los seres humanos que se relacionan con ella. En este caso es aconsejable que la IA cuente con el respaldo de información y documentación explicativa sobre el alcance de su sistema”, se puede leer.

La nueva regulación busca la creación de una ley nacional de IA, mecanismos federales de coordinación, auditorías independientes y programas de formación para organismos públicos. Esto se ve reforzado por la necesidad impuesta por el decreto de contar con consentimiento libre, expreso, previo, inequívoco, específico e informado cuando se traten datos personales.

Otro punto clave de la nueva regulación es la clasificación de las tecnologías por niveles de riesgo: el primero es el de riesgo inaceptable, que abarca los contenidos que serán directamente prohibidos. Aquí entran las que puedan afectar la seguridad, la salud, los derechos fundamentales o el “orden constitucional-democrático”. El segundo riesgo alto, que es aquellos datos que se permiten bajo auditorías, evaluaciones de impacto y estrictas garantías. Entre ellos los que utilizan datos biométricos, los que gestionan infraestructura crítica, los usados en educación, justicia, empleo, democracia y administración pública. A éste le sigue el riesgo limitado, como los chatbots informativos, que están permitidos bajo condiciones de transparencia, es decir que la ciudadanía debe saber si interactúa con una máquina. Por último está el riesgo nulo dónde las reglas son más livianas, pero igual obligadas a justificar su uso y demostrar razonabilidad, como filtros de spam o automatizaciones internas sin impacto en personas.

“Hay diferentes tipos de riesgos, desde el de recibir mails por spam a través de un bot hasta el riesgo de tener un algoritmo totalmente automatizado que decida sobre la vida humana. La idea es que quien desarrolle estos softwares tenga noción de la importancia con la que opera. De todas maneras, según la normativa, todo tiene que tener un control humano”, continuó la funcionaria.

El decreto obliga a inscribir los desarrollos de los organismos y empresas en un Registro Provincial de Inteligencia Artificial, que será gestionado por la Dirección Provincial de Innovación Digital. “Resguardamos los datos en el Data Center de la provincia, porque por ejemplo, cuando vos subís datos personales al chat GPT, si no lo tenés debidamente resguardado el peligro es muy grande, no sabés quién puede acceder a ellos. Por eso el decreto establece que todos los datos deben quedar guardados en un Data Center creado por la Provincia de Buenos Aires. Además, tenemos todo un plan de ciberseguridad», aseguró D’Agostino. 

Tal como explica la funcionaria del gobierno provincial, esta norma no se pensó específicamente para regular el uso del celular, ni el problema de las apuestas online en adolescentes. Desde PBA también trabajan dando capacitaciones y explicando el buen uso de la IA en las escuelas. “Se hizo mucha capacitación y reflexión en las aulas sobre el buen uso de las tecnologías en niños, niñas y adolescentes. Ahí vimos que el fenómeno de las apuestas online era mucho más prevaleciente en los chicos y en las chicas se repetía la situación de subir fotos de las que después se arrepentían”, planteó. “Nosotros como Estado acompañamos brindando una concientización del problema”, finalizó.

Compartí