¿Qué es la inteligencia artificial y cómo se usa?
La inteligencia artificial es la habilidad de una máquina de presentar las mismas capacidades que los seres humanos, como el razonamiento, el aprendizaje, la creatividad y la capacidad de planear.
La IA permite que los sistemas tecnológicos perciban su entorno, se relacionen con él, resuelvan problemas y actúen con un fin específico. La máquina recibe datos (ya preparados o recopilados a través de sus propios sensores, por ejemplo, una cámara), los procesa y responde a ellos.
Los sistemas de IA son capaces de adaptar su comportamiento en cierta medida, analizar los efectos de acciones previas y de trabajar de manera autónoma.
¿Por qué es importante la IA?
Algunas tecnologías con inteligencia existen desde hace más de 50 años, pero los avances en la potencia informática, la disponibilidad de enormes cantidades de datos y nuevos algoritmos han permitido que se den grandes avances de IA en los últimos años.
La inteligencia artificial tiene un papel central en la transformación digital de la sociedad y ha pasado a ser una prioridad de la UE.
Se espera que sus aplicaciones futuras impliquen grandes cambios, pero la IA ya está presente en nuestras vidas.
La inteligencia artificial en el día a día
A continuación, se muestran algunas aplicaciones de inteligencia artificial que quizás desconocía que utilizaba esta habilidad.
Compras por internet y publicidad
La inteligencia artificial se usa mucho para crear recomendaciones personalizadas para los consumidores, basadas, por ejemplo, en sus búsquedas y compras previas o en otros comportamientos en línea. La IA es muy importante en el comercio, para optimizar los productos, planear el inventario, procesos logísticos, etc.
Búsquedas en la web
Los motores de búsqueda aprenden de la gran cantidad de datos que proporcionan sus usuarios para ofrecer resultados de búsqueda relevantes.
Asistentes personales digitales
Los teléfonos móviles smartphones usan la IA para un producto lo más relevante y personalizado posible. El uso de los asistentes virtuales que responden a preguntan, dan recomendaciones y ayudan a organizar las rutinas de sus propietarios se ha generalizado.
Traducciones automáticas
Los programas de traducción de idiomas, basados tanto en texto escrito como oral, recurren a la inteligencia artificial para proporcionar y mejorar las traducciones. La IA también se aplica a otras funciones, como el subtitulado automático.
Casas, ciudades e infraestructuras inteligentes
Los termostatos inteligentes aprenden de nuestro comportamiento para ahorrar energía, mientras que los desarrolladores de ciudades inteligentes esperan poder regular el tráfico para mejorar la conectividad y reducir los atascos.
Vehículos
Aunque los vehículos de conducción autónoma no están generalizados todavía, los coches utilizan ya funciones de seguridad impulsadas por IA. Por ejemplo, la UE ayudó en la financiación del sistema de asistencia a la conducción basado en visión VI-DAS, que detecta posibles situaciones peligrosas y accidentes.
La navegación se basa en gran medida en IA.
Ciberseguridad
Los sistemas de inteligencia artificial pueden ayudar a reconocer y luchar contra los ciberataques y otras amenazas en línea basándose en los datos que reciben continuamente, reconociendo patrones e impidiendo los ataques.
La inteligencia artificial para luchar contra la Covid-19
La IA se ha utilizado en las cámaras termográficas instaladas en los aeropuertos y en otros lugares. En medicina, puede ayudar a reconocer una infección de los pulmones a partir de una prueba llamada tomografía computarizada. También se ha utilizado para proporcionar datos para rastrear la propagación de la enfermedad.
Lucha contra la desinformación
Algunas aplicaciones de la inteligencia artificial pueden detectar noticias falsas y desinformación al extraer información de las redes sociales, buscar palabras sensacionales o alarmantes e identificar qué fuentes en línea se consideran autorizadas.
Descubra más sobre cómo los eurodiputados quieren regular la legislación sobre datos para promover la innovación y garantizar la seguridad.
Otros ejemplos de aplicaciones de IA
Con la IA se pretende transformar casi todos los aspectos de la vida y la economía. Estos son otros ejemplos:
Salud
Los investigadores estudian cómo usar la IA para analizar grandes cantidades de datos sobre la salud para encontrar patrones que podrían llevar a nuevos descubrimientos en la medicina y a otras formas de mejorar los diagnósticos individuales.
Por ejemplo, los investigadores desarrollaron un programa de IA que respondía a llamadas de emergencia y decían que detectaba paros cardíacos más rápidos de lo que lo podría hacer un médico.
Por otra parte, KConnect, cofinanciado por la UE, está desarrollando servicios de búsqueda y texto en varios idiomas que ayudan a las personas a encontrar la información médica más relevante disponible
Transporte
La inteligencia artificial podría mejorar la seguridad, velocidad y eficiencia del tráfico ferroviario al minimizar la fricción de las ruedas, maximizar la velocidad y permitir la conducción autónoma.
Manufacturas
La inteligencia artificial puede ayudar a que los productores europeos sean más eficientes y potencie de nuevo las fábricas en Europa al usar robots, optimizar los recorridos de ventas o con predicciones puntuales del mantenimiento necesario o de averías en "fábricas inteligentes".
El proyecto de investigación cofinanciado por la UE SatisFactory usa sistemas colaborativos de realidad aumentada para incrementar la satisfacción en el trabajo en "fábricas inteligentes".
Comida y agricultura
La IA puede usarse para construir un sistema alimentario sostenible: podría garantizar comida más sana al minimizar el uso de fertilizantes, pesticidas y el riego; mejorar la productividad y reducir el impacto medioambiental. Además, los robots podrían quitar las malas hierbas y reducir el uso de herbicidas.
En la UE, ya hay muchos granjeros que usan la IA para controlar el movimiento, la temperatura y el consumo de alimentos de sus ganados.
Administración pública y servicios
Al usar enormes cantidades de datos y reconocer patrones, la IA podría prever desastres naturales, permitir una preparación adecuada y reducir sus consecuencias.
Retos de la implementación de inteligencia artificial en las empresas
En la actualidad, la inteligencia artificial se ha convertido en una herramienta clave para muchas empresas, ya que les permite mejorar la eficiencia y la productividad de sus procesos, sin embargo, la implementación de la IA no es un proceso sencillo y plantea varios retos para las empresas.
La inteligencia artificial es una rama de la informática que se encarga de desarrollar sistemas capaces de realizar tareas que requieren inteligencia humana, como el aprendizaje, el razonamiento y la toma de decisiones.
Retos de la implementación de inteligencia artificial en las empresas
Falta de conocimiento y experiencia en IA
Uno de los principales retos de la implementación de inteligencia artificial en las empresas es la falta de conocimiento y experiencia en IA, muchas empresas no tienen el personal capacitado para desarrollar y aplicar la IA de manera efectiva.
Además, la IA es un campo en constante evolución, lo que significa que los profesionales deben estar actualizados en todo momento para poder implementar nuevas soluciones.
Falta de datos y calidad de los datos
Otro reto importante en la implementación de inteligencia artificial es la falta de datos y la calidad de los mismos. La IA requiere grandes cantidades de datos para funcionar de manera efectiva, pero muchas empresas no tienen acceso a los datos necesarios o no están estructurados adecuadamente.
Es importante garantizar que los datos deben ser de alta calidad y estar actualizados para que la IA pueda proporcionar resultados precisos.
Falta de recursos financieros
La implementación de la IA es un proceso costoso, la inversión en hardware, software y personal técnico especializado puede ser significativa, lo que puede resultar difícil de justificar para algunas empresas.
Dificultades en la integración con los sistemas existentes
Es una tecnología compleja que puede requerir cambios significativos en los sistemas existentes de una empresa, antes de implementarla, es necesario asegurarse de que todos los sistemas sean compatibles entre sí, en caso contrario la IA puede no funcionar correctamente y causar problemas en la empresa.
Privacidad y seguridad de los datos
La Inteligencia artificial puede requerir acceso a datos confidenciales, lo que plantea preocupaciones de privacidad y seguridad. Las empresas deben asegurarse de que tienen políticas claras y sólidas de privacidad y seguridad de datos antes de implementar la IA.
Adopción de la tecnología por parte de los empleados
La IA puede cambiar significativamente la forma en que los empleados realizan su trabajo, lo que puede llevar a resistencia y falta de adopción de la tecnología. Las empresas deben proporcionar una capacitación adecuada y trabajar en estrecha colaboración con los empleados para garantizar una implementación exitosa.
Ética en la Inteligencia Artificial
Puede tener implicaciones éticas significativas, especialmente en áreas como la toma de decisiones automatizadas y la discriminación algorítmica, las empresas deben considerar cuidadosamente las implicaciones éticas de la IA y trabajar para garantizar que se utilice de manera responsable y ética.
Por lo tanto, la implementación de la IA presenta una serie de desafíos únicos que las empresas deben abordar para garantizar su éxito.
Los desafíos de la inteligencia artificial
En el mundo no se detiene la conversación alrededor de las oportunidades y las amenazas de la inteligencia artificial. Bill Gates afirma que “el desarrollo de la IA es tan fundamental como la creación del teléfono, del microprocesador, la computadora personal, el internet y el móvil”.
Se habla de sus posibilidades en torno a la capacidad para procesar datos e información de manera estructurada, precisa y rápida; del impacto que tiene en términos de eficiencia y ahorro de tiempo, y de las posibilidades que ofrece para resolver problemas complejos que la humanidad aún no ha podido solventar. Aunque se destacan sus habilidades de razonamiento lógico, también se mencionan sus limitaciones en materia de pensamiento crítico, habilidades perceptivas, emotivas y de inspiración, aspectos en los cuales los seres humanos todavía superamos a la IA.
Los desafíos que plantea la IA han ocupado gran parte de la atención y hoy se pueden resumir en privacidad de datos personales, ciberseguridad, propiedad intelectual, destrucción de empleos, sesgos algorítmicos, entre otros. Los más pesimistas hablan de las consecuencias que podría generar para la democracia e, incluso, para la supervivencia de la especie humana. Es innegable que los grandes avances de la humanidad han traído consigo efectos secundarios que no se vislumbraba en su momento y que resultan difíciles de controlar y, la IA, probablemente, no será la excepción.
Si la IA es parte del futuro y muchas personas no la van a poder utilizar o saber aprovechar, la brecha no solo se va a mantener, sino que, además, se va a ampliar.
Además, hay un tema que definitivamente debe preocupar a países como el nuestro: las brechas que esta tecnología va a abrir. Si la IA es parte del futuro y muchas personas no la van a poder utilizar o saber aprovechar, la brecha no solo se va a mantener, sino que, además, se va a ampliar. Y si bien tiene razón Bill Gates al afirmar que “la IA creará nuevos niveles de equidad”, lo cierto es que estos niveles van a depender de la velocidad con la que seamos capaces de aprovechar las posibilidades que esta tecnología ofrece.
En Colombia, esto depende principalmente de dos factores: conectividad y talento. Desafortunadamente, en ambos frentes tenemos grandes debilidades.
De acuerdo con la Encuesta de Tecnologías de la Información y las Comunicaciones, ENTIC Hogares 2021, solo el 61,6 % de los hogares del ámbito nacional cuentan con acceso a Internet. En áreas rurales, sólo tres de cada diez personas tienen acceso a la conectividad. Además, el acceso mayoritario a Internet ocurre a través de dispositivos móviles, que, si bien son útiles para consumir información, limitan la capacidad de producción de contenido.
En cuanto al talento, no basta con tener habilidades digitales para interactuar con la IA, también es crucial saber plantear las preguntas adecuadas, para poder aprovechar los beneficios que esta tecnología ofrece. Según cifras de 2021, solo el 48,73 % de los niños que ingresan al sistema educativo terminan la educación media y la mayoría de ellos, además, enfrentan grandes dificultades en comprensión lectora (45,2 % obtuvieron, el nivel más bajo en las Pruebas PISA en esta materia). Si tienen estas dificultades para comprender lo que están leyendo, es fácil imaginar los problemas que tendrán para plantearse las preguntas correctas.
A pesar de la enorme incertidumbre que aún existe en torno a los temas de IA, está claro que, si no tomamos las medidas necesarias para cerrar la brecha digital, el impacto en Colombia será muy profundo. Así, a fin de evitar el aumento de las brechas socioeconómicas y generacionales, tanto internamente como respecto a otros países, es fundamental allanar el camino para que la velocidad de la transformación en el mundo no se tropiece con las barreras de conectividad y las limitaciones del talento en nuestro país.
Regulación de la Inteligencia Artificial en la Unión Europea, más allá de ChatGPT
El interés alrededor de los últimos desarrollos en materia de Inteligencia Artificial, como el uso de ChatGPT o la automatización de ciertos procesos, aumenta día a día. Para darle respuesta, Europa prepara un Reglamento sobre Inteligencia Artificial que está a punto de cristalizar. El nuevo marco jurídico aborda cuestiones éticas y retos de aplicación en varios sectores centrándose en aspectos clave como la calidad de los datos, la transparencia y la supervisión humana. Pero aún tiene algunas cuestiones que debe resolver.
La Comisión Europea publicó un borrador del Reglamento de Inteligencia Artificial, o ‘IA Act’ (AIA, por sus siglas en inglés) en abril de 2021. Tras largos meses de análisis, una vez que el Parlamento de la UE ratifique en el Pleno su posición en junio, el Consejo, el Parlamento y la Comisión estarán en condiciones de negociar con la Comisión el texto definitivo. Aunque el Reglamento todavía puede sufrir cambios durante las negociaciones, se espera que sea definitivamente aprobado a finales de año.
Con el objetivo de posicionar a Europa como centro mundial de excelencia en IA, aprovechando su potencial para el progreso científico e industrial, el nuevo reglamento pretende reforzar la normativa sobre el desarrollo y el uso de esta tecnología en el marco del respeto de los valores y la legislación de la Unión Europea.
Sabedores de que este reglamento corre peligro de quedar obsoleto ante la evolución tecnológica, la Comisión ha regulado la aplicación de la IA a casos de uso concretos y no la tecnología en sí. Por ello, se evalúa el riesgo que el uso de la tecnología puede suponer para los derechos fundamentales, la salud y la seguridad de una persona y se clasifican los sistemas de IA en cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo.
Niveles de riesgo
Tienen riesgo inaceptable, y su producción y uso están prohibidos por el reglamento, los sistemas de IA con alta probabilidad de perjudicar física o psicológicamente a las personas. Estos se refieren a las aplicaciones que manipulan subliminalmente, clasifican socialmente o vigilan indiscriminadamente a la ciudadanía. Entre estos sistemas están los utilizados para la identificación biométrica remota en tiempo real de personas en lugares públicos con fines policiales y los sistemas de crédito social que evalúan a la ciudadanía y pueden limitar su acceso a servicios públicos; un tipo de discriminación ya prohibida en la Unión Europea mediante el Reglamento General de Protección de Datos (RGPD).
Por su parte, la categoría de alto riesgo la integran los sistemas de IA que, deficientemente implementados, podrían tener un importante impacto en los derechos fundamentales, la salud y la seguridad de una persona. Estos sistemas no están prohibidos en la UE, pero deben cumplir varios requisitos adicionales, como evaluaciones de conformidad, aplicación de sistemas de gestión de riesgos, prácticas de gobernanza de datos, elaboración de documentación técnica, mantenimiento de registros, transparencia y suministro de información a los usuarios.
El Anexo III del reglamento detalla ocho ámbitos de aplicación, como la gestión de infraestructuras críticas o el control de migraciones, así como el acceso a educación o empleos, entre otros. Por ejemplo, el uso de IA para la gestión de personal en una empresa, desde la contratación al despido, pasando por la asignación de tareas, es posible en la UE siempre y cuando se garantice la transparencia, la no discriminación, y demás requisitos.
Finalmente, están los sistemas considerados de riesgo limitado y los de riesgo mínimo. Los primeros son aquellos que interactúan con personas mediante un agente automatizado, como los chatbots; reconocen emociones; categorizan biométricamente a las personas; o manipulan contenido audiovisual. A estos sistemas se les exige que informen a los ciudadanos sobre su funcionamiento. Para los sistemas que pertenecen a la categoría de riesgo mínimo, ni la Comisión ni el Consejo imponen requisitos adicionales, pero el Parlamento propone establecer unos principios generales que deberían guiar su desarrollo.
Además, en las últimas semanas, ante el auge de herramientas como ChatGPT, el Parlamento ha propuesto introducir algunos requisitos concretos sobre la tecnología en que se basa esta herramienta, los modelos fundacionales. Estos requisitos serían exigibles para cualquier sistema de este tipo, se aplique a un caso de uso de alto riesgo o no.
Sin duda, este será uno de los temas más relevantes en la negociación del texto final, pues es contrario al objetivo inicial de que la norma no regule tecnologías concretas y, si los requisitos son difícilmente cumplibles por los desarrolladores de este tipo de tecnología, se corre el riesgo de impedir el desarrollo y uso de esta tecnología con gran potencial en la Unión Europea. En estos momentos, los requisitos de gobernanza impuestos por el Parlamento podrían obstaculizar la adopción de esta tecnología en la Unión Europea.
Lagunas de la AIA
La propia categorización del reglamento es criticada por su arbitrariedad. Aparna Viswanathan, jurista experta en tecnología, señala que “los criterios de cada categoría de riesgo no proporcionan ninguna base justiciable para determinar la categoría de un sistema de IA”. Aparna argumenta que los sistemas de recomendación usados en redes sociales y plataformas audiovisuales sugieren contenido diferente a usuarios según su sexo, edad, etnia o personalidad; por lo que “deberían entrar en la categoría de riesgo inaceptable por el riesgo documentado que han creado tanto para la democracia como para la salud mental de los adolescentes”. La abogada ha ejercido en EE UU y pone como ejemplo el uso de Facebook para influir en las elecciones americanas de 2020 o el uso de Twitter para instigar los disturbios del Capitolio en 2021. “La doctrina jurídica de la 'intención', en concreto, la formulación 'destinado a ser utilizado' por el desarrollador del sistema de IA, clave para determinar si un sistema de IA es de 'alto riesgo', es prima facie inviable”.
La falta de precisión en alguno de los requisitos del reglamento también genera confusión. Por ejemplo, para evitar que un sistema opere de manera sesgada, opaca o injusta, se establece que los datos tienen que ser completos y libres de errores. “Tal cosa es imposible porque los datos de una compañía generalmente no representan a toda la población, sino a sus clientes”, explica Jesús Lozano, senior manager en Regulación Digital en BBVA. “Otra cosa es que la empresa se tenga que asegurar de que los datos que usa no afectan la calidad del modelo que va a desarrollar. Es decir, es lógico requerir que los datos utilizados en un sistema sean de calidad, pero es casi imposible que estos representen a toda la población o no contengan ningún error”.
La ambigüedad también afecta a técnicas susceptibles de ser identificadas como sistemas de IA aunque no lo sean. Es el caso de las regresiones lineales, habitualmente utilizadas en la concesión de crédito bancario, que en la propuesta de la Comisión, no así en las posiciones del Consejo y el Parlamento, podrían considerarse IA de alto riesgo.
En cualquier caso, el reglamento prevé que sea el supervisor nacional quien interprete la norma y evalúe el nivel de cumplimiento de los criterios. Para la coordinación y armonización de prácticas supervisoras se crea un órgano asesor, el Consejo Europeo de IA, pero sus decisiones no son de carácter vinculante.
La violación del reglamento acarrea sanciones de hasta 30 millones de euros o el 6% de los ingresos globales de la empresa que la incumpla, así como multas si se presenta documentación falsa o engañosa a los reguladores. Teniendo en cuenta que algunos de los casos previstos por el reglamento también están amparados por el RGPD, queda por esclarecer si las sanciones por incumplimiento de la AIA se acumularían a las previstas por el RGPD.
“Si los requisitos son poco concretos y las sanciones altas, el riesgo de incumplimiento aumenta y el impacto del mismo es mayor”, resume Jesús Lozano.
Potencial de la AIA
Pese a sus limitaciones, el borrador de la AIA representa el primer acercamiento sistemático y armonizado a la Inteligencia Artificial desde una perspectiva legal. Países punteros en esta tecnología, como China, Japón y Canadá, tienen
planes y estrategias nacionales al respecto, incluso comités de asesores independientes en el caso de los dos últimos. Pero ninguno cuenta con un reglamento tan ambicioso como la AIA. Tampoco EE UU, donde no hay una ley federal específica, sino normas vinculadas como la Ley de Privacidad del Consumidor de California (CCPA).
Según Viswanathan, “las lagunas de la AIA se derivan del hecho de que se ha concebido en términos de la doctrina jurídica de la responsabilidad por productos defectuosos. En cambio, la IA no es un producto, sino un sistema que tiene su propio ciclo de vida”. La abogada desearía que los reguladores analizasen rigurosamente todos los aspectos del ciclo de vida de la IA, en colaboración con expertos técnicos, para concebir una normativa que prevenga los daños antes de que se produzcan, en lugar de intentar evaluar el nivel de daño después de que el sistema se haya comercializado.
En este sentido, Virginia Mijes Martín, experta en Expansión Digital y profesora de EAE Business School, cree que la solución está en la continua actualización de un reglamento que “ofrece un marco regulatorio general, aunque la realidad obligue a una aceleración de la revisión cada año o cada dos años para poder acompañar la velocidad de crucero que han tomado las tecnologías”.
Urgen a legislar en materia de Inteligencia Artificial en México
Una investigación del Instituto Belisario Domínguez de la Cámara de Senadores plantea la necesidad de legislar para regular el desarrollo, aprovechamiento y mitigación de los riesgos de la IA; "esta legislación tiene que ser transversal considerando que la IA está penetrando velozmente en todas las actividades", señala el autor del estudio, César Alejandro Giles Navarro.
México carece de una regulación que sirva para promover el desarrollo ordenado y aprovechamiento seguro e incluyente de la Inteligencia Artificial (IA) y por ello es inminente que el Congreso de la Unión legisle en la materia, concluye una investigación del Instituto Belisario Domínguez de la Cámara de Senadores.
Mediante una "nota estratégica" titulada "El uso de la Inteligencia Artificial (IA) en el Poder Legislativo", plantea la necesidad de legislar para regular el desarrollo, aprovechamiento y mitigación de los riesgos de la IA debido a la velocidad e intensidad de los cambios que esta tecnología trae consigo.
"Esta legislación tiene que ser transversal considerando que la IA está penetrando velozmente en todas las actividades, lo que tendrá un impacto en el mercado laboral, la división social del trabajo, las necesidades educativas y la productividad del país", cita el estudio del investigador César Alejandro Giles Navarro.
Nueva ley de ciencia no la incluye
Refiere que el Congreso mexicano aprobó recientemente, a propuesta del Ejecutivo federal, la nueva Ley General en materia de Humanidades, Ciencias, Tecnologías e Innovación, pero que esta no incluye un rubro específico sobre IA.
Así como que el pasado 30 de marzo, el diputado federal Ignacio Loyola (PAN) propuso expedir la Ley para la Regulación Ética de la Inteligencia Artificial y la Robótica, a fin de establecer lineamientos de políticas públicas sobre el uso de dicha herramienta mediante la creación del Consejo Mexicano de Ética para la Inteligencia Artificial y la Robótica y la Red Nacional de Estadística de uso y monitoreo en la materia.
La investigación precisa que el 22 de marzo de 2018, es decir durante el sexenio anterior que encabezó el presidente Enrique Peña Nieto, el gobierno de la República presentó la Estrategia de Inteligencia Artificial de México 2018 (Estrategia IA-MX 2018), que analiza las ventajas, oportunidades y desafíos de México en la materia, y hace recomendaciones en el corto, mediano y largo plazos para todos los sectores de la sociedad.
El proyecto, agrega, planteó la realización de acciones como desarrollar un marco de gobernanza adecuado para fomentar el diálogo multisectorial, mapear los usos y necesidades en la industria, identificar mejores prácticas en el gobierno, impulsar el liderazgo internacional de México en la materia y trabajar con especialistas y ciudadanía para dar continuidad a la estrategia, "sin embargo, hasta la fecha este proyecto no ha sido retomado por la presente administración".
La IA es una herramienta con un potencial enorme para el Poder Legislativo, explica, porque los sistemas disponibles en la actualidad podrían ser aprovechados para tomar decisiones más informadas, optimizar los recursos burocráticos, mejorar la comunicación de los legisladores con la ciudadanía y hacer más eficiente el proceso legislativo.
Sin embargo, advierte que la adopción de la IA en el Poder Legislativo también supone limitaciones y riesgos importantes a tomar en cuenta, entre otras cuestiones, como el uso de información imprecisa y desactualizada, importación de soluciones no adecuadas para las realidades del país, problemas de plagio, dependencia tecnológica, mal uso de los datos personales e institucionales y peligros cibernéticos que podrían vulnerar los sistemas usados por las instituciones para el cumplimiento de sus funciones.
Requiere Inteligencia Artificial urgente regulación
Los desafíos que la Inteligencia Artificial (IA) plantea al mundo del derecho han pasado de una serie de hipótesis especulativas hace apenas un par de años, al urgente requerimiento de límites jurídicos que contengan su impactante avance. Las amenazas que la IA implica en diferentes campos y actividades hacen que muchas voces se levanten alertando sobre la necesidad de encontrar respuestas.
De hecho, los propios ejecutivos de empresas dedicadas a IA se han unido a llamados de líderes políticos y organizaciones de consumidores para frenar el avance de estas tecnologías, hasta no sopesar sus efectos y definir reglas básicas para su irrupción en una gran variedad de actividades y aplicaciones.
Los desafíos que la Inteligencia Artificial (IA) plantea al mundo del derecho han pasado de una serie de hipótesis especulativas hace apenas un par de años, al urgente requerimiento de límites jurídicos que contengan su impactante avance. Las amenazas que la IA implica en diferentes campos y actividades hacen que muchas voces se levanten alertando sobre la necesidad de encontrar respuestas.
De hecho, los propios ejecutivos de empresas dedicadas a IA se han unido a llamados de líderes políticos y organizaciones de consumidores para frenar el avance de estas tecnologías, hasta no sopesar sus efectos y definir reglas básicas para su irrupción en una gran variedad de actividades y aplicaciones.
En la parte autoral la IA generativa representa un enigma mayor que el propio surgimiento de Internet. La ruptura de los postulados históricos del derecho de autor, que parte invariablemente de la identificación de uno o varios autores personas físicas, no se limita a su desaparición de la fórmula básica, sino a las situaciones en las que autores previos reclaman violaciones a sus derechos al ser utilizadas sus creaciones en nuevas obras a través de Inteligencia Artificial.
Para la primera cuestión la respuesta se mira dividida en las jurisdicciones que han tomado ya alguna postura. Mientras que unos propugnan por el cambio de paradigma a fin de aceptar las creaciones de personas morales, otros les niegan a tales producciones la calidad de obras y, por tanto, la existencia de derechos por reconocer o proteger por la vía autoral. Una primera alternativa que empieza a parecer viable es la de obligar a los oferentes de herramientas de IA que citen a los autores que son utilizados en porciones significativas de las creaciones que producen. El asunto es que, conforme a la actual legislación de derechos de autor, si el uso de obras previas va más allá de los permisos para una cita, entonces se necesitaría contar con la autorización previa del titular de esos materiales.
Otra área de especial preocupación es la que se conoce como “deepfake”. Con la utilización de herramientas disponibles para cualquiera es posible crear audio y video que imiten la voz, la imagen y los movimientos de cualquier persona. Más allá de las inminentes infracciones al derecho de imagen, no es difícil anticipar los casos de políticos y criminales que podrá generar la suplantación de identidad en esos niveles de sofisticación.
Es el Parlamento de la Unión Europea la instancia legislativa que ha adoptado ya la decisión de promover la primera legislación completa de IA. El primer proyecto conocido incluye prohibiciones para vigilancia biométrica remota en espacios públicos, utilizadas para la formación de bases de datos de reconocimiento facial. En el mismo sentido la Ley de IA pretende prohibir los sistemas policiales predictivos, que claramente limitarían la presunción de inocencia.
No hay duda de la enorme influencia que una legislación como la de la Unión Europea tendrá en diversas legislaciones locales e internacionales, marcando una pauta difícil de contradecir. La gran pregunta es la del tiempo que tomará lograr este objetivo, mientras la IA parece perseguir sus derroteros sin freno alguno.