Gabriele Mazzini, arquitecto y autor principal de la propuesta de Ley de Inteligencia Artificial (IA) en la Comisión Europea, es el líder de un trabajo inédito hacia la regulación de la inteligencia artificial en el territorio europeo, que conlleva retos legales y políticos sin precedentes.
Su carrera, sin embargo, comenzó mucho antes, en Nueva York y en los proyectos de desarrollo internacional en África. En el marco de su participación en la edición 39 de Andicom, el experto europeo habló con Xataka Colombia.
-¿Qué llevó a al UE a adoptar una senda para reglamentar el uso de la IA?
Bueno, creo que esta es una pregunta un poco compleja porque incluso en la UE diría que no fue necesariamente un viaje sin baches en el camino. Ha habido personas que han impugnado el reglamento, sobre todo en las fases finales de las negociaciones. Algunos Estados miembros pedían más cautela y también más tiempo para finalizar la legislación, especialmente en lo que se refiere al capítulo sobre los modelos fundacionales.
-Llama la atención eso, porque siento que muchos otros países miran a la UE para ver si es posible aprender de su experiencia…
Yo diría que cuando pensamos en otros países de todo el mundo, sin duda tienen la oportunidad en este momento de evaluar, de estudiar, lo que se ha hecho en la UE y si ese tipo de modelo de regulación, ese tipo de equilibrio entre regulación e innovación, es realmente un buen modelo también para ellos mismos.
Cuando empezamos a pensar en la regulación de la IA, nuestro principal objetivo era principalmente regularla en el mercado de la UE. Así que estábamos pensando en nuestras propias preguntas internas. Y así, cuando empiezas a pensar en eso, también reflexionas sobre lo que hay en torno a la regulación de la IA, es decir: ¿qué tipo de legislación de privacidad tenemos? ¿Qué tipo de legislación en materia de derechos fundamentales tenemos? ¿Qué tipo de regulación de plataformas tenemos? ¿Qué tipo de legislación de seguridad tiene? Así que, en cierto modo, cuando empezamos a pensar en la regulación, eso también dependía de otros marcos legales que teníamos en la UE, lo que no significa que otros países tengan lo mismo.
Y, en última instancia, hay otra pregunta, que gira en torno a la idea de que una mayor regulación generalmente significa menos tecnología o, para decirlo sin rodeos: cuantos más obstáculos se le pongan a una tecnología, menos probable es que esa tecnología se desarrolle y se use en un determinado contexto. Por lo tanto, cuando otros países han pensado en la regulación de la IA, la pregunta es: ¿cuál es la situación social y económica que tenemos? ¿Y cuál sería el impacto de tener una alta regulación para nuestro propio contexto social y económico? Así que, en mi opinión, es muy, muy importante tener eso en cuenta.
-Hay que preguntarse si esto se puede hacer dentro de límites jurisdiccionales o si es como un edificio en llamas, que no puedes apagar solo tu apartamento...
Creo que vivimos en un sistema en el que tenemos límites jurisdiccionales, ¿verdad? Nuestros países tienen su propio sistema legal. Esto siempre ha sido así y seguirá siendo así. No creo que haya ninguna duda de que vamos a seguir con una estructura similar. Así que Colombia hará sus propias leyes, otros harás sus propias leyes y así sucesivamente.
Por supuesto, cuando se trata de tecnología que normalmente no tiene un límite jurisdiccional, puede ser necesario garantizar un cierto grado de coordinación, porque eso tendría sentido para el propósito de las empresas que operan en diferentes jurisdicciones.
Sin embargo, creo que es importante distinguir también en qué medida cierta legislación cumple con el objetivo político de un determinado país. Porque si tienes una determinada situación socioeconómica, tienes un cierto tipo de desigualdades sociales. Tiene un cierto tipo de acceso o falta de acceso, por ejemplo, a los servicios de salud, o a los servicios financieros. La legislación va a tener un impacto en eso y si no consideras el impacto que un determinado modelo de regulación puede tener en tu contexto, corres el riesgo de, posiblemente, no servir tus propias necesidades.
-Digamos que usted -como todos esperamos- logra regular este campo emergente. Todavía será manejado por los gigantes de la tecnología…
Creo que -en términos generales- es un error pensar que la regulación de la IA es la regulación de las grandes tecnológicas. No es necesariamente lo mismo.
La realidad es que las grandes tecnológicas tienen un papel importante en el desarrollo de la tecnología, y es un hecho que las grandes empresas tecnológicas son el tipo de actor económico que puede desarrollar tecnologías de IA de primer nivel. Entonces, cuando pensamos, por ejemplo, en los modelos de base, el desarrollo de esa tecnología requiere grandes cantidades de cómputo, datos, recursos, talento... y esta combinación se da típicamente bajo el paraguas de las grandes empresas tecnológicas, pero no exclusivamente.
Pensemos en el caso de la UE y la Ley de Inteligencia Artificial. Tomemos, por ejemplo, la regulación de los sistemas de gas, tomemos el ejemplo de la solvencia, un sistema para otorgar un crédito financiero a una persona. Ambos son considerados sistemas de alto riesgo, independientemente de si el proveedor del sistema es una gran empresa tecnológica o una pyme o una startup. Por lo tanto, la regulación es la misma y no depende de quién sea el proveedor.
Y lo otro es que regular a las grandes tecnológica va mucho más allá de la IA. Hay que prevenir la concentración de poder, legislar sobre el acceso a los datos… esencialmente se trata de cómo se ejerce una muy fuerte posición en el mercado.
-¿Cómo afrontar esta realidad y cómo puede evolucionar la legislación -normalmente no lo hace- cuando se aplica a un ámbito que evoluciona cada dos semanas?
Es un hecho que la tecnología se mueve más rápido que la ley y hay una razón para eso, porque la ley es el resultado de un proceso humano con instituciones, con personas. Y especialmente en un entorno democrático, las leyes requieren tiempo para desarrollarse y finalizarse.
Entonces la pregunta es si las herramientas regulatorias que se están utilizando en nuestras jurisdicciones -como podría ser en Colombia o en la UE- son las correctas. ¿Utilizamos las herramientas adecuadas para poder mantenernos al día con el desarrollo tecnológico? ¿Queremos siempre, por ejemplo, tener una ley que tarde al menos tres años en estar lista o debemos ir más rápido? ¿Cuáles son los sistemas de gobernanza que necesitamos replantear para que el proceso legislativo sea más rápido?
Luego hay otro desafío en lo que respecta a la regulación de la IA, que es el hecho de que te centras específicamente en una tecnología. Así que te centras en la IA. No te enfocas en, digamos, lo que en la UE llamamos Regulación Neutral en Tecnología. Y, por supuesto, en el momento en que te enfocas en una tecnología específica, corres el riesgo de que la tecnología evoluciona y, por lo tanto, la ley tiene que mantenerse al día.
En la propuesta de la Comisión habíamos previsto la posibilidad de intervenir de manera simplificada para actualizar la ley, en particular para actualizar las diversas técnicas que deben usarse para que un determinado sistema de software se clasifique como IA.
-Es decir, si mañana OpenAI anuncia que alcanzó la IA General, ¿la UE no tendría que actualizar su reglamento?
No, si se alcanza usando la tecnología fundacional que tenemos hoy -puede ser machine learnign, puede ser deep learning-, no sería necesario. Si estamos ante un nuevo paradigma de IA que no es machine learning y que no es IA simbólica, entonces no quedaría recogido en el ámbito del reglamento.
Ver 0 comentarios