Procesia

10.01.2024 / Noticias

Lo que no sabes sobre la nueva ley de inteligencia artificial europea ¿En qué nos afecta?

Lo que no sabes sobre la nueva ley de inteligencia artificial europea ¿En qué nos afecta?

La unión europea ha aprobado la primera ley de inteligencia artificial. Desde la utilización de las IA ha habido numerosas críticas sobre la falta de regulación de esta nueva tecnología y de los peligros que ello entraña. Cada vez surgen más inteligencias artificiales y es un gran problema el hecho de que no todas estén registradas y que puedan ser utilizadas para cometer actos ilegales con total impunidad.

 

Un ejemplo de todo esto es la utilización de las inteligencias artificiales para el phishing, es decir, crear mensajes personalizados o incluso la clonación de la voz para enviar mensajes y estafar a los usuarios para robar datos o dinero.

 

Además, el uso de las inteligencias artificiales se está extendiendo a ámbitos que la ley denomina de alto riesgo. Se tratan de ámbitos como la salud, empleo, seguridad, entretenimiento o educación. La ley contempla estos casos de los que hablaremos más adelante.

Sin embargo, lo más importante son aquellas medidas que no se han podido aprobar y que podrían afectarnos a todos.

 

¿En qué principios se basa la ley de inteligencia artificial?

 

La nueva ley de inteligencia artificial es una propuesta de reglamento que busca establecer normas armonizadas en materia de inteligencia artificial (IA) y garantizar que su uso sea seguro y respete los derechos fundamentales de los ciudadanos y las empresas. La ley se basa en los siguientes principios:

 

–   Proporcionalidad: la ley establece diferentes niveles de riesgo para los sistemas de IA, desde el riesgo inaceptable hasta el riesgo mínimo, y aplica requisitos proporcionales a cada nivel.

 

 

–   Responsabilidad: la ley establece que los proveedores y los usuarios de los sistemas de IA de alto riesgo deben cumplir con una serie de obligaciones, como realizar una evaluación de conformidad, registrar los sistemas en una base de datos europea, garantizar la supervisión humana, informar a los usuarios de que interactúan con un sistema de IA, y facilitar la trazabilidad y la auditoría de los sistemas. Además, la ley prevé que las víctimas de daños causados por sistemas de IA puedan reclamar una compensación y que las autoridades nacionales puedan imponer sanciones a los infractores.

 

–   Innovación: la ley pretende fomentar el desarrollo y la adopción de la IA en la Unión Europea, creando un mercado único y un entorno de confianza para los usuarios y los proveedores.

 

Ámbitos de alto riesgo sobre los que se aplica la ley ¿En qué nos afecta?

 

Algunos ejemplos de la vida real de cómo la nueva ley de inteligencia artificial podría afectar a diferentes ámbitos son:

 

Salud: los sistemas de IA que se utilizan para diagnosticar enfermedades, prescribir tratamientos o realizar intervenciones quirúrgicas se consideran de alto riesgo y deberán cumplir con requisitos de calidad, seguridad y eficacia. Además, los pacientes deberán ser informados de que están siendo atendidos por un sistema de IA y podrán solicitar una revisión humana de las decisiones tomadas por el sistema.

 

Educación: los sistemas de IA que se utilizan para evaluar el rendimiento académico, orientar la carrera profesional o seleccionar a los candidatos para una beca o una admisión se consideran de alto riesgo y deberán garantizar la transparencia, la explicabilidad y la no discriminación de los resultados. Además, los estudiantes deberán ser informados de que están siendo evaluados por un sistema de IA y podrán impugnar las decisiones tomadas por el sistema.

 

Empleo: los sistemas de IA que se utilizan para gestionar los recursos humanos, monitorizar el comportamiento de los trabajadores o automatizar las tareas se consideran de alto riesgo y deberán respetar la dignidad, la privacidad y la autonomía de los trabajadores. Además, los trabajadores deberán ser informados de que están siendo supervisados o asistidos por un sistema de IA y podrán solicitar una intervención humana en las decisiones tomadas por el sistema.

 

Seguridad: los sistemas de IA que se utilizan para la vigilancia masiva, el reconocimiento facial o la predicción del comportamiento se consideran de riesgo inaceptable y se prohíben, salvo en casos excepcionales y limitados, como la prevención de amenazas terroristas. Además, las autoridades deberán obtener una autorización judicial o administrativa para utilizar estos sistemas y garantizar el respeto de los derechos fundamentales de las personas.

 

Entretenimiento: los sistemas de IA que se utilizan para crear contenidos audiovisuales, musicales o literarios, como los deepfakes, los chatbots o los generadores de texto, se consideran de bajo o mínimo riesgo y se regulan de forma más flexible. Sin embargo, los proveedores y los usuarios de estos sistemas deberán respetar los derechos de autor, la protección de datos y la ética, y evitar el uso engañoso o malicioso de estos sistemas.

 

 

Puntos que deberían aparecer en la ley según varios expertos

 

La nueva ley de inteligencia artificial se basa en la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación, que contiene la primera regulación positiva del uso de la inteligencia artificial por las administraciones públicas y las empresas en nuestro país. Además, se prevé la creación de la Agencia Española de Supervisión de Inteligencia Artificial, que se encargará de supervisar la aplicación y ejecución de la normativa europea y nacional en materia de inteligencia artificial.

 

Algunos puntos que se han querido incluir por parte de expertos en este ámbito y no se han incluido son:

 

–   Una regulación más estricta y armonizada de la inteligencia artificial a nivel europeo, que evite el riesgo de fragmentación del mercado único digital y garantice la protección de los derechos fundamentales de los ciudadanos.

 

–   Un sello de calidad de los algoritmos, que certifique que cumplen con los principios de ética, confianza y seguridad, y que facilite la transparencia y la rendición de cuentas de los desarrolladores y proveedores de inteligencia artificial.

 

–   Un marco de responsabilidad civil y penal por los daños causados por la inteligencia artificial, que establezca los criterios de atribución de culpa y de reparación de los perjuicios, así como las sanciones correspondientes.

 

Ángulos muertos en la ley de inteligencia artificial

 

Varios expertos han analizado la ley de inteligencia artificial que ha sido aprobada y ya han encontrado los primeros fallos. Al tratarse de una ley sobre un ámbito tan novedoso como la inteligencia artificial no es de extrañar que se puedan observar algunos ángulos muertos. ¿A qué nos referimos cuándo hablamos de ángulos muertos?

 

Los ángulos muertos de la ley son aquellos aspectos que la normativa no cubre o deja sin resolver, y que pueden generar problemas o incertidumbres en la aplicación y el uso de la inteligencia artificial. Algunos ejemplos de ángulos muertos de la nueva ley de inteligencia artificial en España son:

 

 

–   La falta de una definición clara y precisa de lo que se entiende por inteligencia artificial, algoritmo y toma de decisión automatizada, lo que puede dificultar la identificación y el control de los sistemas que se rigen por la ley de inteligencia artificial.

 

–   La ausencia de una regulación específica para los sistemas de inteligencia artificial que se consideran de riesgo inadmisible, como los que atentan contra la dignidad humana, los que manipulan el comportamiento de las personas o los que permiten la vigilancia masiva, lo que puede dejar un vacío legal para su prohibición o sanción.

 

–   La insuficiencia de garantías y recursos para las personas afectadas por las decisiones tomadas por los sistemas de inteligencia artificial, especialmente en los casos de alto riesgo, lo que puede limitar su derecho a la información, a la explicación, a la revisión y a la impugnación.

 

–   La falta de coordinación y armonización con el marco normativo europeo y con las iniciativas internacionales en materia de inteligencia artificial, lo que puede generar incompatibilidades, contradicciones o duplicidades en la regulación y la supervisión de esta tecnología.

 

–   La escasez de recursos humanos, técnicos y económicos para la implementación y el cumplimiento de la ley de inteligencia artificial, tanto por parte de las administraciones públicas como de las empresas, lo que puede dificultar la realización de las evaluaciones de impacto, la obtención del sello de calidad, la supervisión y la rendición de cuentas de los sistemas de inteligencia artificial.

 

 

La ley de inteligencia artificial no saldría hasta 2026 aproximadamente. Sin embargo, ¿Quién nos garantiza que para entonces no hayan avanzado tanto las inteligencias artificiales que la ley haya quedado obsoleta? En principio la ley ha previsto toda esta situación y por ello no se ha incidido en regular el funcionamiento de las inteligencias artificiales, sino que por el contrario se ha regulado el uso de estas inteligencias artificiales. Esto provoca que, aunque se innove lo suficiente como para cambiar el funcionamiento actual de las IAs, su uso quede limitado por la ley y que los derechos que obtenemos a partir de esta nueva normativa no se vean amenazados.

 

Si estás interesado en mantener actualizada tu información sobre las últimas novedades y sucesos relacionados con la seguridad informática, protección de información, la ley de inteligencia artificial o análisis de grandes volúmenes de datos, te animamos a visitar nuestra sección de noticias. 

 

Además, puedes seguirnos en nuestras redes sociales y estar al tanto de la evolución de acontecimientos que afectan a la seguridad de los datos personales, las plataformas de redes sociales, las aplicaciones móviles y todas nuestras ofertas de trabajo.