POR SALUD MED TOTAL BPD2

nuva d19 oct

GIF Descarga nuestra app

Menu

         

¿La nueva etapa de la Inteligencia Artificial deberá incluir una regulación ex-ante?



Por Gabriel EPor Gabriel E. Levy B.
Académico y consultor en Temas TIC

En América, la fuerte tradición neoliberal regulatoria ha promovido esquemas normativos ex post, es decir, que regulamos mucho después que los cambios ocurren, lo que da pie a que el mercado se ajuste por sí solo durante los periodos de implementación.

Pero si bien la experiencia ha mostrado que la regulación posterior permite mayor innovación, también es cierto que genera una notable ausencia del Estado en temas cruciales, como ha ocurrido en los últimos años con muchos desarrollos derivados de Internet como Uber, Bitcoin, Airbnb o Netflix. Por esta razón, y ante los riesgos que conllevan los nuevos desarrollos de la Inteligencia Artificial, se hace necesario plantearse si en este campo la regulación deberá ser ex ante ¾antes de que se desarrollen todos los cambios¾ y no ex post.

¿Por qué es importante anticiparnos a la regulación de la nueva IA?

El término ex ante es una palabra neolatina que significa “antes del suceso” y se usa más comúnmente en el mundo comercial y de la regulación, donde los resultados de una acción concreta, o una serie de acciones, se prevén antes de que puedan ocurrir. Lo opuesto ex -ante es ex post, es decir posterior a que ocurra el suceso[1].

La Inteligencia Artificial (AI, por sus siglas en inglés), hace referencia al tipo de procesamiento basado en algoritmos informáticos que puede desarrollar una máquina computacional, mediante un tipo de imitación electrónica de las funciones cognitivas humanas como percibir, razonar, aprender y resolver problemas[2].

La Inteligencia Artificial hace parte de los sistemas de algoritmos con los que se han diseñado las aplicaciones que usamos diariamente en nuestros móviles o computadores, incluyendo programas que utilizamos en muchos aspectos de nuestra vida cotidiana.

En la siguiente generación de desarrollos tecnológicos, la Inteligencia Artificial estará presente prácticamente en todos los aspectos de la vida humana, y aunque en la mayoría de los casos se trata de soluciones para hacernos más fácil el mundo que habitamos, también existe un alto riesgo asociado a esta tecnología. Esto no solo porque puede utilizarse para usos militares y geopolíticos, sino porque en un determinado momento dicha inteligencia puede llegar a ser tan autónoma, que se vuelva en contra de la humanidad misma, al mejor estilo del argumento planteado por la trilogía de Matrix[3].

Lo anterior representa un gran reto regulatorio alrededor del mundo, que, dadas las dimensiones y los alcances, posiblemente requiere de un modelo que se anticipe a los riesgos. Es decir, una regulación ex ante, que basada en lo que ya se ha desarrollado, pero con una capacidad de perspectiva y prospección, establezca límites racionales a los altos riesgos derivados de la implementación de un desarrollo potente y autónomo y también permita sacar el mejor partido de esos cambios.

El caso canadiense

Teniendo en cuenta los altos riesgos que conlleva la Inteligencia Artificial, al igual que las enormes promesas, Canadá ha decido comenzar a trabajar en una ruta regulatoria que aparentemente apunta hacia la regulación ex -ante de los nuevos desarrollos que están emergiendo en el campo de Inteligencia Artificial, razón por la cual la Oficina del Comisionado de Privacidad de Canadá (OPC) está consultando con diversos agentes sectoriales y la ciudadanía en general cómo deberían aplicarse los principios de privacidad a la Inteligencia Artificial (IA)[4].

Si bien la OPC reconoce el potencial de la IA para mejorar la calidad de los servicios y procesos informáticos, está preocupada por los riesgos de privacidad y, sobre todo, al sesgo y la discriminación que podría desencadenarse si esta tecnología se saliera de control y juegue en contra de la humanidad misma.

Del mismo modo, la falta de regulación podría frustrar la democratización y optimización de muchos de las grandes promesas y ventajas que estos sistemas puede traer para la sociedad, la economía, la cultura y la salud.

Un tema que preocupa a los expertos en la materia

Para el experto español Moisés Barrio, urge una regulación en materia de Inteligencia Artificial, pues los estados por ahora han dejado el tema en manos de particulares y con todos los antecedentes conocidos en esta materia, no ha existido la suficiente intervención y regulación, quedando muchos aspectos a la deriva.

“No está del todo claro quién debe ser considerado responsable si la IA causa daños (por ejemplo, en un accidente con un coche autónomo o por una incorrecta aplicación de un algoritmo): el diseñador original, el fabricante, el propietario, el usuario o incluso la propia IA. Si aplicamos soluciones caso por caso, nos arriesgamos a la incertidumbre y la confusión. La falta de regulación también aumenta la probabilidad de reacciones precipitadas, instintivas o incluso alimentadas por la ira pública”. Moisés Barrio en Retina del País de España[5]

Para Barrio los riesgos de la IA son múltiples y su gran variedad de posibles aplicaciones generan un igual número de posibles riesgos:

“Los sistemas de IA ya tienen la capacidad de tomar decisiones difíciles que hasta ahora se han basado en la intuición humana o en leyes y prácticas de los tribunales. Tales decisiones van desde cuestiones de vida o muerte, como la utilización de los robots asesinos autónomos en los ejércitos, hasta asuntos de importancia económica y social, como la forma de evitar los sesgos algorítmicos cuando la inteligencia artificial decide por ejemplo si se debe otorgar una beca a un estudiante o cuándo se le concede la libertad condicional a un preso. Si un ser humano tomara estas decisiones, estaría siempre sujeto a una norma legal o ética. No existen tales reglas en el presente de la IA”. Moisés Barrio en Retina del País de España[6]

Los intereses que se oponen a la regulación

Aunque a simple vista pareciera muy lógica la necesidad de regular la nueva generación de la Inteligencia Artificial, existen muchos intereses para que esto no se haga, ya que para algunos una intervención estatal limitaría el potencial económico, militar y político que puede derivarse de su implementación. Al respecto, Moisés Barrio demuestra cómo los intereses corporativos se anteponen en muchos casos a los intentos regulatorios, ya sean de origen civil o gubernamental, algo que se evidencia en otros campos de la economía, como lo que ha ocurrido con el sistema financiero:

“La regulación de la IA está actualmente presidida por intereses corporativos. Y ello no siempre es conveniente. Basta con mirar a la crisis financiera mundial de 2008 para ver qué ocurre cuando la autorregulación de la industria se sale de control. Aunque los Estados han intervenido para exigir a los bancos que mantengan mejores activos para respaldar sus préstamos, la economía mundial sigue sufriendo las repercusiones de un régimen desregulado” Moisés Barrio en Retina del País de España[7]

En conclusión, si bien la Inteligencia Artificial supone un gran avance para la humanidad que podría mejorar significativamente la calidad de vida en múltiples aspectos, en la misma proporción representa un riesgo sin precedentes que de no intervenirse de manera urgente mediante una adecuada regulación, correríamos el riesgo de que se salga de control. Tal y como ha ocurrido en otros campos como el del sistema financiero, que con la crisis de 2008 dejó en evidencia el peligro de una ausencia de regulación, o en temas tecnológicos con los conflictos que han suscitados aplicaciones como Uber, Airbnb, blockchain y Netflix a nivel global.[1] Definición de ExAnte en enciclopedia económica

[2] Libro: Artificial intelligence: a modern approach (en inglés) Upper Saddle River, N.J.: Prentice Hall. ISBN 0-13-604259-7.

[3] Artículo de Wikipedia sobre Matrix

[4] Consulta de la OPC sobre riesgo de la IA

[5] Artículo: ¿Deben los estados regular la Inteligencia Artificial?

[6] Artículo: ¿Deben los estados regular la Inteligencia Artificial?

[7] Artículo: ¿Deben los estados regular la Inteligencia Artificial?

Más de Gabriel E. Levy B.


Valora este artículo
(1 Voto)

volver arriba