Los retos que plantea la Inteligencia Artificial en el plano social, demandan una regulación que permita una interacción segura a todos en armonía.
La IA, entendida como la capacidad de una máquina de imitar el comportamiento humano, cada vez está más cerca de lo que imaginamos.
La inteligencia artificial propone que un día la tecnología hará posible que las computadoras puedan competir intelectualmente con los humanos y posiblemente, sobrepasarnos en destreza mental. Las computadoras serán capaces de escribir software o responder a preguntas filosóficas complejas.
El término Inteligencia Artificial (IA), se aplica a los sistemas, máquinas o equipos que manifiestan un comportamiento inteligente, que son capaces de analizar su entorno y tomar medidas o acciones con cierto grado de autonomía y complejidad con el fin de alcanzar y lograr tareas u objetivos específicos.
La IA se califica y clasifica a través de las siguientes formas:
Inteligencia Artificial Estrecha (IAE). Conocida como el tipo débil de IA y la más común hoy en día. Está programada para realizar tareas basadas en información extraída de un conjunto de datos específico. Por ejemplo, altavoces inteligentes, vehículos autónomos, videojuegos, robots automatizados, buscadores web, chatbots y otras asistencias virtuales o programadas.
La Inteligencia Artificial General (IAG). Conocida como IA fuerte, es el tipo de IA que puede comprender, aprender y desempeñar cualquier tarea, actividad o función intelectual o cognitiva igual a la de un ser humano.
La Súper Inteligencia Artificial (SIA) o Híper Inteligencia, es un término que hace referencia a la capacidad del sistema, equipo o máquina para superar la intelectualidad y cognición de los seres humanos con la ayuda de su propia voluntad y conciencia.
¿Por qué es preciso regular la IA?
Debemos regular la IA por dos razones fundamentales. En primer lugar, porque gobiernos y empresas la utilizan para tomar decisiones que pueden generar un impacto significativo en nuestras vidas.
Sin una regulación adecuada, los sistemas tienen más probabilidad de ser inexactos y sesgados, ya que las empresas tienen menos incentivos para invertir en medidas de seguridad y garantizar la calidad y la imparcialidad de sus datos.
En segundo lugar, porque siempre que alguien toma una decisión que nos afecta, tiene una responsabilidad sobre la misma, debe rendir cuentas ante nosotros.
La legislación de derechos humanos establece unas normas mínimas que todo el mundo reconoce y puede esperar y otorga a todas las personas el derecho a recurrir cuando se incumplen y se sufre un daño. Teóricamente, los gobiernos deben garantizar el respeto de estas normas y de que toda persona que las infrinja tiene que rendir cuentas.
Todo el mundo, incluidas empresas y gobiernos, tienen que seguir ciertas normas a la hora de tomar decisiones. Cuando alguna persona se salta las normas y perjudica a otra, debe responder por ello.
Existen indicios de que las empresas detrás de la IA pueden eludir la responsabilidad de los problemas. Por ejemplo, en 2018 un coche autónomo de Uber mató a una peatona, al principio no estaba claro quién sería el responsable. A pesar de que los investigadores descubrieron que el coche tenía problemas de seguridad, Uber fue declarado "sin responsabilidad penal". Fue la persona al volante quien fue acusada de homicidio por negligencia, ya que estaba viendo un programa de televisión.
¿Qué sabemos de las normativas existentes?
No existe una legislación específicamente diseñada para regular el uso de la IA. Más bien, los sistemas de IA se regulan por otras normativas existentes. Entre ellas, las leyes de protección de datos, de protección de los consumidores y de competencia en el mercado.
Sin embargo, han aprobado proyectos de ley para regular ciertos sistemas específicos de IA. En Nueva York, es posible que proximamente las empresas tengan que revelar cuándo utilizan algoritmos para elegir a sus empleados y varias ciudades de Estados Unidos ya han prohibido el uso de tecnologías de reconocimiento facial.
En la UE, la Ley de Servicios Digitales tendrá un impacto significativo en el uso por parte de las plataformas en línea de algoritmos que clasifican y moderan el contenido, predicen nuestras preferencias personales y, en última instancia, deciden lo que leemos y vemos, los también llamados algoritmos de moderación de contenido.
Los gobiernos han comenzado a adoptar estrategias y a trabajar en nuevas leyes desde hace varios años, pero aún no se ha aprobado ninguna legislación.
La propuesta más ambiciosa hasta ahora procede de la UE. El 21 de abril de 2021, la Comisión Europea presentó una propuesta de nueva ley sobre IA. El proyecto sugiere que se ilegalice el uso de la IA para fines considerados "inaceptables". Entre ellos, tecnologías de reconocimiento facial, los sistemas que se utilizan para clasificar a las personas en función de su "fiabilidad", y los sistemas que manipulan a las personas o explotan las vulnerabilidades de grupos específicos; por ejemplo, un juguete que utiliza la asistencia por voz para manipular a los niños para que hagan algo peligroso.
El enfoque de la propuesta se basa en el riesgo: cuanto mayor sea el riesgo de una determinada utilización de la IA para nuestras libertades, más obligaciones de transparencia tendrá la autoridad o la empresa sobre el funcionamiento del algoritmo y de informar a los reguladores sobre cómo se ha utilizado.
¿Qué debería contener la regulación?
Una regulación eficaz de la IA que proteja los derechos debe contener, como mínimo, las siguientes salvaguardas.
Debe prohibir las tecnologías que violan nuestros derechos fundamentales, como la vigilancia masiva biométrica o los sistemas de policía predictiva. La prohibición no debe incluir excepciones.
Debe haber normas claras que establezcan la información que las empresas tienen que hacer pública: información sobre los datos que utiliza, el proceso de desarrollo, la finalidad del sistema y dónde y quién lo utiliza. Es esencial que las personas expuestas a la IA tengan información sobre la misma. Los sistemas que pueden tener un impacto significativo en la vida de las personas deberían someterse a un escrutinio adicional y figurar en una base de datos de acceso público.
Los individuos y organizaciones que protegen a los consumidores deben poder pedir responsabilidades a los gobiernos y a las empresas en caso de que provoquen problemas. Las normas existentes sobre responsabilidad deben adaptarse para reconocer que las decisiones son tomadas por un algoritmo y no por el usuario.
La nueva normativa debe garantizar la existencia de un organismo regulador que compruebe que las empresas y las autoridades cumplen las normas. Debe ser independiente y contar con recursos y poderes necesarios para hacer su trabajo.
Debe incluir salvaguardas para proteger a los más vulnerables, establecer un sistema que permita que las personas que se han visto perjudicadas por sistemas de IA presenten una denuncia y obtengan una compensación.
La inteligencia artificial tendrá un gran impacto en el mundo y nos obligará a cambiar las leyes que nos rigen; la proliferación de la IA obligará a que se den cambios en nuestro ordenamiento jurídico, puesto que las normas no se encuentran adecuadas para abordar cómo los productos de IA interactúan con nosotros y entre sí.
A medida que esta tecnología evolucione se crearán nuevos retos legales. Distintas áreas del derecho tales como la responsabilidad Civil, la Propiedad Intelectual, el Derecho Constitucional, el Derecho Internacional, el Derecho
Laboral, así como otras, se tendrán que ajustar a esta nueva realidad.
Por lo tanto, la idea de un marco legal especializado para la IA no suena tan descabellada, teniendo en cuenta que muchos expertos señalan que dentro de los próximos 5 años existirá un “boom” respecto a esta tecnología; nos encontramos en un punto ideal para desarrollar un marco jurídico eficiente que pueda crecer a la par de esta tecnología.
Comments