Últimas noticias

Acuerdo político en Europa para regular la Inteligencia Artificial por Ley

La Comisión Europea se felicita del acuerdo político alcanzado entre el Parlamento Europeo y el Consejo sobre la Ley de Inteligencia Artificial (Ley de IA), propuesta por la Comisión en abril de 2021

Las nuevas normas se aplicarán directamente de la misma manera en todos los Estados miembros sobre la base de una definición de inteligencia artificial a prueba de futuro. 

Siguen un planteamiento basado en el riesgo, como se explica a continuación.

Riesgo mínimo: La inmensa mayoría de los sistemas de inteligencia artificial entran en esta categoría. Las aplicaciones de riesgo mínimo, tales como los sistemas de recomendación o los filtros de correo no deseados basados ​​en la inteligencia artificial, disfrutarán de libertad y ninguna obligación al respecto, ya que estos sistemas presentan un riesgo mínimo o nulo para los derechos o la seguridad. de los ciudadanos. No obstante, de forma voluntaria, las empresas pueden suscribir códigos de conducta adicionales sobre estos sistemas de inteligencia artificial.

Alto riesgo: Los sistemas de inteligencia artificial definidos como de alto riesgo deberán cumplir requisitos estrictos, tales como sistemas de mitigación de riesgos, conjuntos de datos de alta calidad, registro de actividad, documentación detallada, información clara a los usuarios supervisión humana y un alto. grado de solidez, precisión y ciberseguridad. Los espacios controlados de pruebas facilitarán la innovación responsable y el desarrollo de sistemas de inteligencia artificial conformes.

Algunos ejemplos de estos sistemas de inteligencia artificial de alto riesgo son determinadas infraestructuras críticas, por ejemplo, en los ámbitos del agua, el gas y la electricidad; productos sanitarios; sistemas para determinar el acceso a instituciones educativas o para la contratación de personas; o determinados sistemas utilizados en los ámbitos de la policía, el control fronterizo, la administración de justicia y los procesos democráticos. Además, los sistemas de identificación biométrica, categorización y reconocimiento de emociones también se consideran de alto riesgo. 

Riesgo inadmisible: Se prohibirán los sistemas de inteligencia artificial que se consideran una clara amenaza para los derechos fundamentales de las personas. Esto abarca los sistemas o las aplicaciones de inteligencia artificial que manipulen el comportamiento humano para eludir la voluntad de los usuarios, por ejemplo, juguetes que utilizan asistencia vocal para incitar a comportamientos peligrosos a los menores y sistemas que permiten la «puntuación social» por parte. de Gobiernos o empresas, así como determinadas aplicaciones de actuación policial predictiva. Además, se prohibirán algunos usos de sistemas biométricos, por ejemplo, los sistemas de reconocimiento de emociones en el lugar de trabajo, algunos sistemas para clasificar a las personas o la identificación biométrica remota en tiempo real con multas policiales en lugares públicos (con excepciones limitadas). ).

Riesgo específico de transparencia : Al utilizar sistemas de inteligencia artificial como robots conversacionales, los usuarios deben ser conscientes de que están interactuando con una máquina. Las ultrafalsificaciones y otros contenidos generados por la inteligencia artificial deberán etiquetarse como tales, y los usuarios deberán ser informados cuando se utilicen sistemas de categorización biométrica o de reconocimiento de emociones. Además, los proveedores tendrán que diseñar los sistemas de manera que los contenidos sintéticos de audio, vídeo, texto e imágenes se marquen en un formato legible por la máquina y puedan reconocerse como generados o manipulados artificialmente.

Multas

Se impondrán multas a las empresas que no cumplan las normas. Las multas oscilarían entre 35 millones de euros o el 7 % del volumen de negocios anual mundial (si esta cifra es superior) por infracciones relacionadas con aplicaciones de inteligencia artificial prohibidas, 15 millones de euros o el 3 % por incumplimiento de otras obligaciones y 7 ,5 millones de euros o el 1,5 % por la presentación de información incorrecta. Se prevén topes más proporcionados para las multas administrativas para las pymes y las empresas emergentes en caso de infracción de la Ley de IA.

Inteligencia artificial de uso general

La Ley de IA introduce normas específicas sobre los modelos de inteligencia artificial de uso general que garantizarán la transparencia en toda la cadena de valor. En el caso de modelos muy potentes que puedan plantear riesgos sistémicos, habrá obligaciones vinculantes suplementarias relacionadas con la gestión de riesgos y el seguimiento de incidentes graves, la realización de la evaluación de modelos y emulación de adversarios ( adversarial testing ). Estas nuevas obligaciones se pondrán en práctica mediante códigos de prácticas elaborados por la industria, la comunidad científica, la sociedad civil y otras partes interesadas, junto con la Comisión.

Creación de una nueva Oficina Europea de Inteligencia Artificial dentro de la Comisión Europea se encargará de la coordinación. a nivel europeo. La nueva Oficina de Inteligencia Artificial también supervisará la aplicación y el cumplimiento de las nuevas normas sobre modelos de inteligencia artificial de uso general. Junto con las autoridades nacionales de vigilancia del mercado, la Oficina de Inteligencia Artificial será el primer organismo mundial que aplicará normas vinculantes en la materia y, por lo tanto, se prevé que se convierta en una referencia internacional. Para los modelos de finalidad general, un grupo científico de expertos independientes desempeñará un papel central al emitir alertas sobre los riesgos sistémicos y contribuir a la clasificación y el ensayo de los modelos.

Aprobación formal y pacto

El acuerdo político está ahora sujeto a la aprobación formal del Parlamento Europeo y del Consejo y entrará en vigor a los veinte días de su publicación en el Diario Oficial. La Ley de IA pasaría a ser aplicable dos años después de su entrada en vigor, excepto en el caso de algunas disposiciones específicas: las prohibiciones ya se aplicarán transcurridos seis meses, mientras que las normas sobre la inteligencia artificial de finalidad general se aplicarán transcurridos doce meses.

Para salvar el período transitorio antes de que el Reglamento sea de aplicación general, la Comisión pondrá en marcha un Pacto sobre la inteligencia artificial , el cual reunirá a desarrolladores de inteligencia artificial de Europa y de todo el mundo que se comprometerán voluntariamente a cumplir las obligaciones. fundamentos de la Ley de IA antes de los plazos legales.

La Unión Europea seguirá trabajando en foros como el G7, la OCDE, el Consejo de Europa, el G20 y las Naciones Unidas.

About The Author

Otras noticias publicadas

Responder

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *