En los últimos meses, el debate sobre la regulación de la Inteligencia Artificial (IA) volvió a intensificarse a nivel global. Mientras algunos países avanzan con marcos normativos amplios y complejos, otros prefieren no regular en absoluto, confiando en la autorregulación del mercado o en soluciones puramente técnicas. Sin embargo, esta discusión suele quedar atrapada en un falso dilema que poco ayuda a resolver los problemas reales.
La guía “¿Legislar o no legislar? ¿Cómo legislar la Inteligencia Artificial en tiempos de Inteligencia Artificial?” surge justamente para salir de esa lógica binaria y proponer un enfoque más situado, práctico y responsable.
Una guía pensada para un contexto que cambia rápido.
La IA no avanza al ritmo de las leyes. Modelos, capacidades y usos se actualizan en ciclos cada vez más cortos, mientras que los marcos normativos suelen diseñarse con una vocación de permanencia de décadas. Regular la IA como si fuera una tecnología estática no solo es ineficaz, sino que puede generar rigideces que queden obsoletas en muy poco tiempo.
Por eso, esta guía no propone regular herramientas específicas ni escribir leyes cerradas sobre tecnologías concretas. El foco está puesto en regular impactos, asignar responsabilidades claras y proteger Derechos Humanos frente a sistemas que ya influyen en decisiones públicas, privadas y sociales.
15 principios como punto de partida, no como receta.
Los principios funcionan como un piso normativo y conceptual que puede orientar leyes, decretos, resoluciones y políticas públicas, sin pretender convertirse en un manual técnico ni en una lista cerrada.
Transparencia algorítmica, trazabilidad, supervisión humana efectiva, protección reforzada de datos, no discriminación, responsabilidad humana indelegable y gobernanza colegiada son algunos de los ejes que se desarrollan como criterios básicos para legislar con sentido democrático.
La idea no es “copiar y pegar” principios, sino ofrecer un marco común desde el cual discutir normas concretas.
Un marco flexible y actualizable.
Uno de los aportes centrales de la guía es su énfasis en la flexibilidad regulatoria. En lugar de apostar por leyes rígidas, propongo incorporar mecanismos que permitan actualizar la regulación a medida que cambian las tecnologías y sus usos.
Cláusulas de revisión periódica, evaluaciones de impacto algorítmico, mecanismos de actualización técnica y espacios de experimentación regulada bajo control público son algunas de las herramientas que planteo para evitar que la regulación quede desfasada frente a la innovación.
Poner el foco donde hoy ya hay conflictos reales.
La guía parte de una premisa clara: legislar desde principios generales sin atender a los conflictos que ya están ocurriendo conduce a normas amplias, complejas y poco efectivas. Por eso, dedico un apartado a analizar problemáticas críticas actuales que ya impactan directamente en los Derechos Humanos.
Entre ellas se destacan la desinformación y la manipulación del debate público, el impacto de los algoritmos de plataformas en niñas, niños y adolescentes, la opacidad algorítmica en la gestión pública y la desactualización de las leyes de protección de datos personales.
El enfoque propuesto es progresivo y focalizado: diagnosticar los problemas reales, identificar impactos sobre Derechos Humanos y legislar primero sobre los puntos de mayor urgencia y riesgo.
Una construcción colectiva e interdisciplinaria.
En el último apartado, sostengo que la regulación de la IA no puede ser diseñada desde una sola disciplina. Para que sea efectiva, necesita integrar miradas del derecho, la ciencia de datos, la ingeniería, la ética, las ciencias sociales, la comunicación, la educación y la sociedad civil.
Legislar la IA no es escribir leyes sobre máquinas. Es decidir, colectivamente, cómo queremos que la tecnología se integre a la sociedad.
No se trata de regular por regular, sino de regular responsablemente.
Si te interesa el documento podés descargarlo ingresando acá.
Dejame tu correo electrónico y te envío información sobre lo que estoy haciendo en EXCLUSIVA.