Enrique Ortega Burgos

INTELIGENCIA ARTIFICIAL GENERATIVA UE.

INTELIGENCIA ARTIFICIAL GENERATIVA

En el cambiante panorama de la tecnología emergente, el año 2023 ha estado dominado por conversaciones centradas en la Inteligencia Artificial (IA), asemejándose a cómo el 2019 fue marcado por las criptomonedas y la tecnología financiera (fintech), 2020 por el cloud computing e internet en la nube durante la pandemia, 2021 por los drones y la robótica, y 2022 por la tecnología blockchain.

Todos estos son componentes esenciales de la revolución tecnológica, económica y social en curso (Fuente: McKinsey & Company), en este contexto queremos comentaros en nuestro portal sobre la INTELIGENCIA ARTIFICIAL GENERATIVA.

 

¿QUÉ ES LA INTELIGENCIA ARTIFICIAL GENERATIVA?.

 

La Inteligencia Artificial Generativa (IAG) es una rama de la inteligencia artificial que se enfoca en la generación de contenido original a partir de datos existentes. Esta tecnología utiliza algoritmos y redes neuronales avanzadas para aprender de textos e imágenes, y luego generar contenido nuevo y único.

 

El estudio de la IA desde la perspectiva regulatoria es crucial. Según el Parlamento Europeo (2020), la IA se define como «la habilidad de una máquina de presentar las mismas capacidades que los seres humanos, como el razonamiento, el aprendizaje, la creatividad y la capacidad de planear.»

 

Dentro de la IA, la IA generativa se destaca como una categoría importante, definida por el Foro Económico Mundial con ayuda del sistema Midjourney de OpenAI como «algoritmos de IA que generan nuevo contenido a partir de los datos con los que se les ha entrenado.» Esto se aplica a servicios como OpenAI’s ChatGPT y DALL-E, Google Bard y Github Copilot, entre otros.

 

LA IMPORTANCIA DE REGULAR LA INTELIGENCIA ARTIFICIAL PARA LA UE.

 

La UE ha reconocido la importancia de regular el uso de la inteligencia artificial (IA) como parte de su estrategia digital, con el objetivo de garantizar un entorno favorable para el desarrollo y uso de esta tecnología innovadora. La IA tiene el potencial de aportar numerosos beneficios en diferentes áreas, como la asistencia sanitaria mejorada, el transporte más seguro y sostenible, una fabricación más eficiente y una energía más económica y sostenible.

En abril de 2021, la Comisión Europea presentó el primer marco regulatorio para la IA en la UE. Esta propuesta busca clasificar y analizar los sistemas de IA utilizados en diversas aplicaciones, según el nivel de riesgo que representen para los usuarios. Dependiendo del nivel de peligro, se establecerán diferentes regulaciones. Una vez aprobada, esta legislación se convertirá en las primeras normas integrales sobre IA a nivel mundial.

La prioridad del Parlamento Europeo en la legislación sobre IA es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Se pretende que estos sistemas estén supervisados por seres humanos, en lugar de depender completamente de la automatización, con el fin de evitar resultados perjudiciales. Además, el Parlamento busca establecer una definición uniforme y tecnológicamente neutral de la IA, que pueda aplicarse a futuros sistemas de IA.

 

La nueva legislación sobre IA, conocida como la Ley de Inteligencia Artificial, establece obligaciones tanto para los proveedores como para los usuarios, en función del nivel de riesgo que presenten los sistemas de IA. Aunque muchos sistemas de IA representan un riesgo mínimo, se requerirá una evaluación exhaustiva para todos ellos.

 

Los sistemas de IA considerados de riesgo inaceptable serán prohibidos, ya que representan una amenaza para las personas.

Ejemplos de estos sistemas incluyen la manipulación cognitiva del comportamiento de personas o grupos vulnerables, como los juguetes activados por voz que fomentan comportamientos peligrosos en los niños, la puntuación social que clasifica a las personas según su comportamiento o estatus socioeconómico, y los sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial.

Sin embargo, existen algunas excepciones a esta prohibición, como el uso de sistemas de identificación biométrica a distancia «a posteriori» para perseguir delitos graves, pero solo con aprobación judicial previa y tras un retraso significativo en la identificación.

Por otro lado, los sistemas de IA considerados de alto riesgo, que puedan afectar negativamente a la seguridad o a los derechos fundamentales, se dividirán en dos categorías.

  1. La primera categoría incluye los sistemas de IA utilizados en productos sujetos a la legislación de la UE sobre seguridad, como juguetes, aviación, automóviles, dispositivos médicos y ascensores.
  2. La segunda categoría engloba los sistemas de IA pertenecientes a ocho ámbitos específicos, como la identificación biométrica y categorización de personas físicas, la gestión de infraestructuras críticas, la educación y formación profesional, el empleo y la gestión de trabajadores, el acceso a servicios privados esenciales y servicios públicos, la aplicación de la ley, la gestión de la migración y el asilo, y la asistencia en la interpretación jurídica y aplicación de la ley.

Todos los sistemas de IA de alto riesgo serán evaluados antes de su comercialización y durante todo su ciclo de vida.

En cuanto a la IA generativa, como el caso de ChatGPT, se establecerán requisitos de transparencia, como la revelación de que el contenido ha sido generado por IA, el diseño del modelo para evitar la generación de contenido ilegal y la publicación de resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.

Por último, se establecerán requisitos mínimos de transparencia para los sistemas de IA de riesgo limitado, de manera que los usuarios puedan tomar decisiones informadas al interactuar con estas aplicaciones. Los usuarios deben ser conscientes de cuándo están interactuando con sistemas de IA, como aquellos que generan o manipulan contenido de imagen, audio o vídeo, como los deepfakes.

Desde el punto de vista académico y con un enfoque legal, los sistemas de inteligencia artificial (IA) se clasifican en diferentes niveles de riesgo con el fin de regular su uso y minimizar los posibles impactos negativos.

 

A continuación, se proporciona una definición de cada categoría, ejemplos concretos y una tabla que resume las características de cada tipo de sistema de IA.

  1. Sistemas de IA considerados de riesgo inaceptable: Los sistemas de IA de riesgo inaceptable son aquellos que se consideran una amenaza grave para las personas y la sociedad en general. Estos sistemas están estrictamente prohibidos debido a su potencial para causar daño significativo. Algunos ejemplos de sistemas de IA de riesgo inaceptable incluyen:

Es importante destacar que existen algunas excepciones a la calificación de riesgo inaceptable, como los sistemas de identificación biométrica a distancia «a posteriori» que requieren una aprobación judicial previa y se utilizan para perseguir delitos graves.

  1. Sistemas de IA considerados de alto riesgo: Los sistemas de IA de alto riesgo son aquellos que pueden tener un impacto significativo en la seguridad y los derechos fundamentales de las personas. Estos sistemas están sujetos a una regulación más estricta para garantizar su seguridad y minimizar los posibles riesgos. Algunos ejemplos de sistemas de IA de alto riesgo incluyen:

Los sistemas de IA de alto riesgo deben pasar por evaluaciones rigurosas antes de su comercialización y a lo largo de su ciclo de vida para garantizar su conformidad con los requisitos de seguridad y protección de derechos.

  1. IA generativa: La IA generativa se refiere a sistemas de IA capaces de generar contenido original, como texto, imágenes o música, sin una intervención humana directa. Estos sistemas pueden ser utilizados en diversos campos creativos, pero también plantean desafíos éticos y legales. Algunos requisitos de transparencia para la IA generativa incluyen:
  1. IA de riesgo limitado: Los sistemas de IA de riesgo limitado se consideran de menor riesgo en comparación con los sistemas de riesgo inaceptable o alto riesgo. Estos sistemas deben cumplir con requisitos mínimos de transparencia para permitir que los usuarios tomen decisiones informadas. Ejemplos de sistemas de IA de riesgo limitado incluyen aquellos que generan o manipulan contenido de imagen, audio o video, como deepfakes.

 

DISTINTOS TIPOS DE IA POR SU RIESGO LEGAL

A continuación se presenta una tabla que resume las características de cada tipo de sistema de IA:

 

Categoría Descripción Ejemplos
Riesgo inaceptable Amenaza grave para las personas, prohibidos Juguetes activados por voz peligrosos
Puntuación social discriminatoria
Identificación biométrica en tiempo real
Alto riesgo Impacto significativo en seguridad y derechos fundamentales Sistemas de IA en productos regulados
Identificación biométrica en categorías específicas
IA generativa Capacidad para generar contenido original sin intervención humana directa Sistemas de IA que generan música
Sistemas de IA que generan texto
IA de riesgo limitado Menor riesgo, requisitos mínimos de transparencia Sistemas de IA que generan deepfakes

Esta tabla proporciona una visión general de las características y ejemplos de cada categoría de sistemas de IA según su nivel de riesgo. Es importante destacar que la regulación y clasificación de los sistemas de IA pueden variar según la legislación específica de cada país o región.

 

LAS MEDIDAS DE LA UE EN 2023.

 

A partir del 14 de junio de 2023, los eurodiputados adoptaron su posición negociadora sobre la ley de IA, y las conversaciones sobre la versión final de la legislación se llevarán a cabo en el Consejo, junto con los países de la UE. El objetivo es llegar a un acuerdo a finales de este año. La UE está tomando medidas significativas para regular el uso de la IA y garantizar un enfoque responsable y seguro de esta tecnología en beneficio de todos los ciudadanos.

 

El avance de la inteligencia artificial plantea desafíos y oportunidades, y la Ley de Inteligencia Artificial es un hito importante en la búsqueda de un marco legal adecuado para su desarrollo y utilización.

 

Los esfuerzos para regular la IA son complejos y están en constante evolución. Los organismos internacionales buscan abarcar todas las aplicaciones de la IA, aunque inevitablemente se centran en las aplicaciones más populares actualmente, como la IA generativa.

La OCDE (Organización para la Cooperación y el Desarrollo Económicos) ha publicado una guía de regulación de IA con la intención de ser una referencia flexible para los países miembros al formular sus propias legislaciones (Fuente: OECD AI Principles).

El Consejo de Europa también está avanzando en la dirección de la regulación con su propio Tratado de la Inteligencia Artificial. Aunque la UE no está necesariamente vinculada por el contenido de este tratado, su importancia es evidente en las relaciones con países europeos no miembros de la UE y con los EE.UU., que es miembro observador del Consejo de Europa.

Mientras tanto, Bruselas está avanzando para ser la primera en crear normas vinculantes que regulen la IA. Recientemente, el Parlamento Europeo aprobó un borrador del Reglamento para la Inteligencia Artificial, un punto de partida para las futuras negociaciones entre la Comisión, el Consejo de la UE y el Parlamento. Sin embargo, la aprobación de este borrador no implica la aprobación del Reglamento de la IA, a pesar de algunos titulares confusos.

Este proceso legislativo aún está en marcha. España, que asumirá la presidencia rotatoria del Consejo de la UE a partir del 1 de julio, tendrá la difícil tarea de impulsar este procedimiento legislativo durante los próximos seis meses. Miguel Valle del Olmo, Agregado para la transformación digital de la Representación permanente de España ante la Unión Europea, será una figura clave en este proceso.

El borrador aprobado por el Parlamento Europeo es en muchos aspectos similar al texto original propuesto por la Comisión. Sin embargo, hay algunas diferencias notables, como la definición de la IA, que ahora se alinea con las guías de la OCDE. Además, hay un endurecimiento de las normas sobre el uso de la IA para la vigilancia policial y el reconocimiento facial. Aunque la prohibición del reconocimiento facial en espacios públicos en vivo se mantiene, se está debatiendo la posibilidad de utilizarlo ex post facto para casos de posible delito.

Mientras el mundo digital sigue evolucionando, la necesidad de una regulación sólida y bien pensada se vuelve cada vez más apremiante. Continuaremos observando los desarrollos en la política digital internacional en los próximos meses. Para obtener más información y mantenerse actualizado sobre las últimas noticias y desarrollos en la IA, consulte fuentes confiables como la OCDE, el Parlamento Europeo, el Consejo de Europa, y el Foro Económico Mundial.

 

El Parlamento Europeo pone a Europa en la vanguardia de la regulación de la Inteligencia Artificial

El Parlamento Europeo ha dado un salto considerable hacia la adopción de un enfoque más regulado en torno a las capacidades y riesgos de la Inteligencia Artificial (IA). La IA, en términos generales, se refiere a la simulación de procesos de inteligencia humana por máquinas, especialmente sistemas informáticos. Estos procesos incluyen el aprendizaje, el razonamiento, la percepción del entorno, el procesamiento del lenguaje natural y la interacción social (Russell & Norvig, 2020).

En un esfuerzo por prevenir un futuro que se asemeje más a la ficción distópica, Europa está avanzando para ser la primera región del mundo en regular formalmente la IA y sus avances más sofisticados, ya sean conocidos o aún en desarrollo.

Los eurodiputados están solicitando transparencia adicional en modelos generativos de IA, como ChatGPT de OpenAI, capaces de crear contenido, tanto imágenes como textos. ChatGPT es un modelo de lenguaje desarrollado por OpenAI que utiliza técnicas de aprendizaje automático para generar texto de manera coherente y relevante en respuesta a las entradas de los usuarios (Radford et al., 2021).

Este enfoque regulatorio surge en respuesta a preocupaciones sobre los efectos potenciales que la IA puede tener en los derechos y libertades civiles si se utiliza sin ética por empresas o gobiernos.

 

Aunque este es un paso crucial, el texto aún debe ser validado por el pleno de la Eurocámara, con las negociaciones programadas para comenzar posteriormente con el Consejo y la Comisión. Thierry Breton, el Comisario encargado de la propuesta legislativa, ha expresado su esperanza de que la AI Act pueda entrar en vigor en toda la Unión Europea a más tardar en 2025.

 

La regulación de la IA se basa en su uso, en lugar de en tecnologías específicas, para evitar que se vuelva obsoleta antes de su implementación. Los eurodiputados han ampliado la clasificación de «áreas de alto riesgo» en su propuesta, incluyendo aquellos sistemas de IA que podrían afectar la salud o seguridad de los ciudadanos, así como sus derechos fundamentales o el medio ambiente. También han agregado nuevas definiciones para cubrir tecnologías emergentes, como los sistemas generativos de ChatGPT..

 

Tramitación de la Ley de Inteligencia Artificial en la UE y sus objetivos.

 

El proceso de aprobación de la propuesta de ley de inteligencia artificial en la Unión Europea (UE) ha avanzado significativamente con la aprobación por parte del Parlamento Europeo, obteniendo una mayoría abrumadora. Sin embargo, este paso no marca el final del proceso, ya que la ley será sometida a debate en el Consejo Europeo y aún podría sufrir modificaciones por parte de la Comisión o la Presidencia del Consejo, que España presidirá en el segundo semestre de 2023.

El borrador de la ley se redactó en un tiempo récord de 11 días, partiendo de un texto previo del año 2021. Con esta propuesta legislativa, que ha captado una gran atención mediática, Bruselas busca garantizar que los sistemas de inteligencia artificial sean supervisados por personas, asegurando su seguridad, transparencia, rastreabilidad, no discriminación y respeto al medio ambiente.

Además, Europa busca establecer una definición uniforme de la inteligencia artificial, diseñada para ser tecnológicamente neutral y aplicable tanto a los sistemas de IA existentes como a los futuros. Con el objetivo de evitar que la legislación quede obsoleta poco después de su aprobación, los legisladores comunitarios enfatizan la regulación de los usos de la IA en lugar de centrarse únicamente en las tecnologías subyacentes.

¿Qué aspectos prohíbe la ley de inteligencia artificial?*

 

La regulación comunitaria establece cuatro niveles de riesgo para los modelos de inteligencia artificial: mínimo, limitado, alto e inaceptable. En el nivel de riesgo «inaceptable», el uso de la IA estará estrictamente prohibido. Por ejemplo, se considerará un riesgo inaceptable el uso de la IA para manipular cognitivamente a las personas o clasificarlas según su comportamiento.

Con la nueva ley de inteligencia artificial, Europa tiene como objetivo evitar que los sistemas de IA clasifiquen a las personas en función de información sensible como el género, la etnia, la religión o la ideología. También se prohibirá la identificación biométrica a distancia y en tiempo real en espacios públicos, así como el uso de IA para reconocer emociones por parte de las fuerzas de seguridad o instituciones educativas, entre otros ejemplos.

Además, la ley prohíbe a las fuerzas del orden utilizar la IA para predecir futuros actos ilegales. La UE también ha reconocido la prohibición del «social scoring», que consiste en clasificar a las personas en función de su comportamiento social, nivel económico o características personales. Asimismo, se amplía la prohibición de la identificación biométrica a entidades privadas, no solo a autoridades públicas.

 

La UE se encuentra en un proceso crucial para regular el uso de la inteligencia artificial y garantizar su aplicación de manera ética y segura. La aprobación de la ley de inteligencia artificial marcará un hito importante en la protección de los derechos de los ciudadanos y establecerá un marco legal sólido para el desarrollo y la utilización responsable de esta tecnología en el contexto europeo.

 

Fuentes: Russell, S. J., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4th ed.). Pearson. Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., & Sutskever, I. (2021). Language Models are Few-Shot Learners. arXiv preprint arXiv:2005.14165. Comisión Europea. (2021). Propuesta de Regulación de Inteligencia Artificial. Parlamento Europeo. (2023). Adopción de nuevas medidas reguladoras para la Inteligencia Artificial.

 

SI QUIERES CONOCER MÁS SOBRE NUEVAS TECNOLOGÍAS, NO TE PIERDAS LAS SIGUIENTES ENTRADAS:

 

METAVERSO Y PROPIEDAD INDUSTRIAL 2022

METAVERSO Y MODA 1

METAVERSO Y MODA 2

METAVERSO Y MODA 3

METAVERSO Y MODA 4

METAVERSO Y MODA 5

 

 TE RECOMENDAMOS LOS SIGUIENTES LIBROS SOBRE METAVERSO QUE PODRÁS ADQUIRIR EN AMAZON.

 

Metaversos. La gran revolución inmersiva (ESPACIO DE DISEÑO)
Metaverso: La Mejor Guía para Conquistar el Mundo Blockchain e Invertir en Altcoins, Criptomonedas, Tierras Virtuales y NFT
METAVERSO: Qué es y cómo invertir en él. Descubre cómo la realidad virtual, los activos digitales y la tecnología blockchain van a cambiar el mundo para siempre.
Qué es el Metaverso (2022 Segunda Edición): Best-Seller sobre Metaverso: Guía práctica sobre todo lo que necesitas saber sobre el futuro del metaverso y la transformación virtual de empresas.
Metaverso Para Principiantes: Una Guía Completa De Cómo Invertir en El Metaverso | Aprende Todo Sobre Invertir en Tierras, Nft Y Realidad Virtual | 5 Proyectos De Cripto Que Van a Explotar Pronto
Metaverso 360: La guía más completa sobre Metaverso y su inversión, Web 3.0, NFT, DeFi, Realidad Aumentada (RA), Criptoactivos, Bienes Raíces digitales y Networking del futuro
24,65 EUR
7,17 EUR
14,93 EUR
15,60 EUR
15,92 EUR
17,97 EUR
Metaversos. La gran revolución inmersiva (ESPACIO DE DISEÑO)
24,65 EUR
Metaverso: La Mejor Guía para Conquistar el Mundo Blockchain e Invertir en Altcoins, Criptomonedas, Tierras Virtuales y NFT
7,17 EUR
METAVERSO: Qué es y cómo invertir en él. Descubre cómo la realidad virtual, los activos digitales y la tecnología blockchain van a cambiar el mundo para siempre.
14,93 EUR
Qué es el Metaverso (2022 Segunda Edición): Best-Seller sobre Metaverso: Guía práctica sobre todo lo que necesitas saber sobre el futuro del metaverso y la transformación virtual de empresas.
15,60 EUR
Metaverso Para Principiantes: Una Guía Completa De Cómo Invertir en El Metaverso | Aprende Todo Sobre Invertir en Tierras, Nft Y Realidad Virtual | 5 Proyectos De Cripto Que Van a Explotar Pronto
15,92 EUR
Metaverso 360: La guía más completa sobre Metaverso y su inversión, Web 3.0, NFT, DeFi, Realidad Aumentada (RA), Criptoactivos, Bienes Raíces digitales y Networking del futuro
17,97 EUR

Salir de la versión móvil