Argentina / 16 febrero 2026

temperature icon 21°C
Edit Template

¿Qué tipo de ley sobre IA necesita Argentina?

Entre la falta de consenso en el Congreso y el alineamiento con la desregulación de EE. UU., Argentina posterga una ley de IA. Mientras la oposición busca seguir el modelo europeo de riesgos, el Gobierno resiste el control estatal, dejando al país sin soberanía tecnológica.

Compartir:

Compartir:

unnamed

Entre 2024 y 2025 en el Congreso Nacional se presentaron numerosos proyectos para regular la inteligencia artificial en Argentina. Sin embargo, el país aún está lejos de tener una normativa propia que determine pautas de control y seguridad sobre los desarrollos y proyectos de IA existentes. El motivo del retraso está en la dificultad para lograr consensos entre el oficialismo y la oposición con relación al enfoque que debería tener una posible ley sobre la IA. Se suma el obstáculo del alineamiento internacional que presenta el gobierno nacional hacia EEUU, y su posición de no regulación de la IA. 

A nivel local y entre los legisladores se repiten dos posturas que también existen a nivel global: la primera, que es la que en general proponen muchos proyectos de la oposición, es la que sigue el modelo de la ley de IA de la Unión Europea con un rol fuerte del estado y una autoridad que supervise y evalúe riesgos. Y la otra es la que plantea mínima regulación y control estatal, y que tiene como principal referente a la administración de Donald Trump, y que es la que también apoya el Gobierno Nacional, partidos como el PRO y muchas empresas locales del sector. 

El país necesita de manera urgente tener una normativa sobre inteligencia artificial. Regular la IA hace posible decidir bajo qué principios se desarrollará y utilizará esta tecnología dentro del territorio nacional, y cómo se protegerán los datos, los derechos y los intereses de la sociedad. Además en el contexto geopolítico actual, en el que la inteligencia artificial es un eje de poder económico, tecnológico y estratégico, contar con una ley propia le permitiría a Argentina ejercer soberanía regulatoria, y no quedar sujeta a pautas definidas por potencias como Estados Unidos o China o grandes tecnológicas.

En 2025 las diversas miradas con relación a los proyectos de Ley de IA quedaron expuestas en la Cámara de Diputados. Específicamente en los debates generados en la comisión de Ciencia y Tecnología de esa cámara, que pese a las diferencias finalmente aprobó un dictamen del proyecto del diputado de Unión por la Patria, Daniel Gollán, que terminó su mandato en diciembre. 

Una primera evaluación política es que los proyectos de ley deberían articularse con políticas de estado o programas de la gestión, lo cual no está sucediendo, y esto complica cualquier diálogo de fórmulas de consenso. Del debate de diputados en la comisión de Ciencia y Tecnología en Diputados en 2025 surge que una de las mayores críticas políticas señalaba que el proyecto en discusión era reglamentarista y que seguía el modelo europeo, en base a tabulaciones de riesgo que ´no resultan convenientes’», explica en diálogo con 4Palabras Diego Rossi, profesor de Políticas Internacionales de Comunicación (UBA) y asesor bloque UxP en el área.

¿Cuáles son las tabulaciones de riesgos de la ley de IA de la Unión Europea?. La normativa clasifica los sistemas de IA según cuatro niveles de riesgo: prohibido (usos inaceptables, como la manipulación o la vigilancia masiva), alto riesgo (aplicaciones en sectores críticos como salud, justicia o infraestructuras, que requieren evaluaciones estrictas y registro), riesgo limitado (sistemas con obligaciones de transparencia, como los chatbots) y riesgo mínimo (usos cotidianos sin regulación específica). A su vez, crea un organismo encargado de supervisar y autorizar su cumplimiento, que es la Oficina Europea de Inteligencia Artificial (AI Office), dependiente de la Comisión Europea, que a su vez coordina con autoridades nacionales para garantizar la aplicación de la normativa, evaluar sistemas de alto riesgo y sancionar incumplimientos. Es decir es una legislación que define un rol muy relevante para los estados para supervisar y autorizar. Una mirada opuesta a la postura de la administración de Donald Trump, que propone lo contrario en el contexto de una gran competencia con China por el liderazgo global en IA.

“Una primera evaluación política es que los proyectos de ley deberían articularse con políticas de estado o programas de la gestión, lo cual no está sucediendo, y esto complica cualquier diálogo de fórmulas de consenso”, señala Diego Rossi, docente de Políticas de Comunicación de la UBA y asesor parlamentario.

Según señala Rossi, el proyecto de Daniel Gollán que obtuvo acuerdo en comisión, buscaba sintetizar aportes de varios proyectos presentados durante 2024: “Aunque tuvo resistencias del arco oficialista y de algunos diputados de oposición moderada que plantearon disidencias parciales; resultó un avance porque buscó una posición mayoritaria dentro del Bloque UxP. Pero por falta de tratamiento de las otras comisiones a las que fue girado, debe retomarse su tratamiento en la comisión de cabecera, que es Ciencia y Tecnología”. 

Frente a esa situación, por ahora no hay fecha estimada para tratamiento de proyectos de ley sobre IA en 2026. “No hay fecha de tratamiento de estos proyectos en ambas cámaras. Porque primero deberían conformarse las comisiones cabeceras, en el caso de diputados es la Comisión de Ciencia y Tecnología. Eso sucederá en marzo, y resultará determinante para el tratamiento el perfil de la o el legislador que la presida”, concluye Rossi.

 

Muchos proyectos, ninguna ley

Las dificultades existentes para acceder a una ley sobre IA en Argentina, no impidió que numerosos legisladores desde 2024 desarrollen diversos proyectos de ley sobre el tema, muchos de los cuales ya han perdido estado parlamentario. Un grupo de investigación se ocupó de hacer un análisis de cada uno de estos proyectos y determinar sobre qué aspectos buscaban legislar y tenían coincidencias. “Riesgos, seguridad y gobernanza de la IA: revisión sistemática del marco legislativo argentino” es el nombre de la investigación, cuyos autores fueron Alejandro Covello, Flavia Costa, Iago Novidelsky y Julián Mónaco. Todos integrantes del TecnocenoLab de la Universidad de Buenos Aires

El relevamiento señaló que los proyectos de ley presentados en el Congreso sobre IA revelaban un enfoque proactivo pero heterogéneo, con énfasis en la seguridad administrativa-jurídica en lugar de una seguridad sistémica integral. En las conclusiones del trabajo se analiza que “de cara al futuro, una política pública eficaz en materia de inteligencia artificial en la Argentina debería avanzar hacia una ley integral que incorpore la promoción de la investigación y el desarrollo de la IA, la alfabetización digital interdisciplinaria y una política de seguridad exhaustiva, que incluya definiciones claras sobre sistemas de IA”.

En diálogo con este medio, Alejandro Covello, uno de los investigadores de Tecnocenolab señala sobre el abordaje: “Encontramos un total de 53 proyectos en general sobre la IA, pero luego realizamos una selección más específica, y analizamos 11 proyectos que proponían una ley integral para regular la IA a nivel nacional, y que fueron presentados entre los años 2024 y 2025”. Remarca que el objetivo era realizar una revisión sistemática de los proyectos “desde la perspectiva de riesgos, seguridad y gobernanza”.

Covello es muy categórico al expresar la importancia de tener una ley integral sobre inteligencia artificial en Argentina: “La IA hoy está totalmente antropomorfizada, nos produce empatía, nos analizamos con ella, es nuestra confidente 24×7, es capaz de personificar de una manera muy convincente a un ser humano, y puede pasar sin ningún tipo de esfuerzo el famoso test de Turing”. Ante esta realidad, menciona los dos llamamientos de referentes científicos que existieron en 2023 y 2025, que de manera directa señalaban: «Estamos expuestos a riesgos sistémicos, a riesgos catastróficos y riesgos existenciales, que sería el peor de todos, ya que se pone en juego la existencia humana. Es una carrera descontrolada que nos puede llevar a la catástrofe”. 

El investigador menciona al urbanista francés Paul Virilio, que trabajó en la teoría crítica de la técnica: «él decía que cada tecnología llevaba consigo su propia negatividad, que aparece al mismo tiempo del progreso. Inventar el barco es inventar el naufragio, inventar la electricidad es inventar la electrocución. Entonces inventar la inteligencia artificial es inventar también el accidente de inteligencia artificial que ya está ocurriendo. Hoy ocurren accidentes de inteligencia artificial y ocurren también en Argentina». 

En este punto, Covello recuerda diferentes experiencias con IA a nivel local que generaron conflictos: el fallido uso de IA en Salta para prevenir embarazos adolescentes; el proyecto con IA para salud mental, Cux, que generó serias críticas de parte de profesionales del área; y el relevamiento de iris de la empresa WorldCoin en Argentina. “Muchísimos jóvenes fueron a entregar sus datos biométricos a cambio de 70 u 80 dólares. Y no sabemos cómo se usarán esos datos. La realidad es que si vos tenés los datos biométricos más los datos de comportamiento que surgen de una red social, entonces tenés todos los ingredientes para hacer biopolítica”, advierte Covello.

“Si no se avanza con una ley, la inteligencia artificial sería el primer producto de la historia de la humanidad que dejaríamos sin regulación alguna, sin gobernanza alguna, con una potencia de producir accidentes de nivel planetarios y existenciales. Entonces es el momento de actuar, tomando los ejemplos de forma racional, colectiva, democrática, para garantizar que la IA le sirva a la humanidad. Porque lo que se busca no es prohibir, la idea es lograr normas sobre cómo convivir con sistemas tecnológicos de alto riesgo", afirma el investigador Alejandro Covello.

 

Prohibir no, regular sí

El investigador puntualiza que una ley sobre IA debe ser integral y con poder de control: «El Estado a través de una ley integral debería exigir a las empresas de IA que gestionen sus riesgos. A su vez debería implementar medidas de mitigación e investigación de los accidentes de inteligencia artificial, como se investigan los accidentes de aviación o de cualquier otra tecnología». 

El experto señala que la ausencia de ley ayuda a las empresas de inteligencia artificial a eludir un uso seguro. Afirma también que corremos otro riesgo: que las regulaciones las pongan las empresas más poderosas. En ese punto, recuerda que hay siete compañías tecnológicas que tienen más poder que un Estado. Por eso, Covello remarca que no solo hay que lograr leyes nacionales, también son necesarias normativas supranacionales. 

«Si no se avanza con una ley, la inteligencia artificial sería el primer producto de la historia de la humanidad que dejaríamos sin regulación alguna, sin gobernanza alguna, con una potencia de producir accidentes de nivel planetarios y existenciales. Entonces es el momento de actuar, tomando los ejemplos de forma racional, colectiva, democrática, para garantizar que la IA le sirva a la humanidad. Porque lo que se busca no es prohibir, la idea es lograr normas sobre cómo convivir con sistemas tecnológicos de alto riesgo», concluye Covello.

Mientras Argentina espera, otros países de la región ya han avanzado en la regulación de la IA. Uruguay, Chile y Brasil están muy cerca de tener sus propias leyes sobre inteligencia artificial, y todas coinciden en que buscan equilibrar la innovación tecnológica con la protección de derechos fundamentales. 

La Unión Europea, por su parte, ha establecido un marco pionero y modelo que clasifica los sistemas de IA según su riesgo y prohíbe aquellos que vulneran derechos humanos. 

Una ley propia de IA en Argentina otorgaría seguridad jurídica, atraería inversiones y fortalecería la posición del país en negociaciones internacionales. La IA en los próximos años transformará sectores claves como la salud, la educación y la justicia. Una ley bien resuelta podría convertir a Argentina en un referente regional en gobernanza tecnológica. Sin embargo, la inacción de las autoridades y de algunos legisladores se convierten en una amenaza: dejar al país otra vez rezagado y sometido a decisiones externas. Evitar llegar a ese punto es el desafío que se abre.

 

4Palabras



Compartir:

Comentarios

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Temas relacionados

Comentarios

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Suscríbete a nuestro boletín para mantenerte actualizado

Publicidades

Comentarios

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Seguinos en: