La Unión Europea quiere regular la inteligencia artificial (IA) para vigilar su desarrollo y garantizar el buen uso de esta tecnología. La IA puede aportar muchos beneficios, como una mejor asistencia sanitaria o una energía más sostenible, pero…¿Por qué es conveniente regularla…?
El Parlamento concibe este proyecto como la declaración de unos principios generales y neutros que puedan aplicarse a futuros sistemas de IA.
Los sistemas de IA utilizados en la UE serán supervisados por personas, seguros, transparentes, trazables, no discriminatorios y sostenibles.
El nuevo proyecto de ley establece una serie de pautas en función del nivel de riesgo de la IA:
1º. Riesgo inaceptable –
Sistemas de IA que supongan una amenaza para las personas, que serán prohibidos. Incluyen:
– Manipulación del comportamiento de personas o grupos vulnerables.
– Clasificación de personas por su estatus o características personales.
– Identificación biométrica en tiempo real y a distancia (sí se permitirán a posteriori para perseguir delitos graves, con aprobación judicial previa).
2º. Alto riesgo –
Los sistemas de IA que atenten contra la seguridad o los derechos fundamentales, con dos categorías:
– Los que se utilicen en productos sujetos a la legislación europea sobre seguridad (juguetes, aviación, automóviles, dispositivos médicos y ascensores).
– Los sistemas de IA pertenecientes a ámbitos específicos que se registrarán en una base de datos de la UE, como Infraestructuras Críticas, Educación y Empleo.
Estos sistemas de IA de alto riesgo se evaluarán antes de su comercialización y durante todo su ciclo de vida.
La IA generativa, como ChatGPT, tendrá que cumplir requisitos de transparencia:
– Identificar que el contenido ha sido generado por IA.
– Establecer las pautas para evitar que genere contenidos ilegales.
– Publicar los datos protegidos por la propiedad intelectual que sean utilizados.
3º. Riesgo limitado –
Sistemas que cumplan con la transparencia necesaria para que los usuarios puedan tomar decisiones con conocimiento de causa, siendo conscientes de cuándo están interactuando con la IA. Incluye aquellos que generan o manipulan contenidos de imagen, audio o vídeo (por ejemplo, deepfakes).
El pasado 14 de junio de 2023, los eurodiputados iniciaron las negociaciones sobre la ley de IA. El Consejo de Europa tratará de dar forma a La Ley de IA antes de finales de este año, ley que será pionera en la regulación de esta tecnología en auge.
Nubeprint, con su primera solución en la Cloud en 2010, usa la I.A. y el Big Data para garantizar un entorno seguro basado en dos pilares:
1º. Seguridad en la protección de red y de sus datos, cumpliendo con hasta siete directivas de seguridad. Entre estas, la HIPAA (Health Insurance Portability and Accountability Act), la Federal Information Security Management Act y la GDPR (General Data Protection Regulation de la CE).
2º. Seguridad ante ciberataques, evitando las brechas de seguridad ya que Nubeprint no es intrusivo ni deja abiertos los puertos de acceso innecesariamente.