La Ley de Inteligencia Artificial fue aprobada por el Parlamento Europeo, la cual fija una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.
La prioridad del Parlamento es garantizar que los sistemas de IA utilizados en la UE sean:
- seguros
- transparentes
- trazables
- no discriminatorios
- respetuosos con el medio ambiente
Los sistemas de IA deben ser supervisados por personas, en lugar de tener autorizaciones por automatización para evitar resultados perjudiciales. Además, el Parlamento también quiere establecer una definición uniforme y tecnológicamente neutra de la IA que pueda aplicarse a futuros sistemas de la misma naturaleza.
Seguro te interesa: Las empresas alimentarias se preparan para recibir la ley de inteligencia artificial
Aplicaciones prohibidas
De acuerdo con las nuevas normativas, se prohíben ciertas aplicaciones de Inteligencia Artificial que atentan contra los derechos de la ciudadanía, como:
- Los sistemas de categorización biométrica basados en características sensibles.
- La captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.
Además, queda prohibido el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de puntuación ciudadana, la actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.
Obligaciones para los sistemas de alto riesgo
Se prevén obligaciones claras para otros sistemas de IA de alto riesgo, debido a que pueden ser muy perjudiciales para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho.
Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales; determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos.
Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana. Los ciudadanos tendrán derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos que afecten a sus derechos.
¿Cómo impactará la Ley de Inteligencia Artificial en el sector alimentario?
Se estima que los impactos de esta nueva ley en los fabricantes de alimentos sean relativamente mínimos, ya que el uso actual de los sistemas de IA por parte de la industria se clasificará principalmente en la categoría de "riesgo limitado".
Sin embargo, la Organización Europea de Consumidores (BEUC, por sus siglas en inglés) advierte que los consumidores siguen sin estar suficientemente protegidos por la Ley de IA.
La nueva norma, que se espera que dé forma a los futuros intentos globales para gestionar los riesgos asociados con los sistemas de IA, adopta un enfoque basado en el riesgo en cuatro categorías:
- Riesgo inaceptable
- Alto riesgo
- Riesgo limitado
- Riesgo mínimo
Por esa razón, los especialistas señalan que es posible que los fabricantes de alimentos pronto descubran que las implicaciones para su negocio serán relativamente limitadas, pues la mayoría de los sistemas de IA que se utilizan en la actualidad probablemente caerán en la categoría de bajo riesgo.
Ley de Inteligencia Artificial: ¿cómo proteger al consumidor?
De acuerdo con los expertos de BEUC, los consumidores se preocupan, con razón, por el poder y el alcance de la IA y cómo puede conducir a la manipulación y la discriminación. Hasta ahora, la Ley de IA no aborda suficientemente estas preocupaciones, pues varias cuestiones quedaron infrarreguladas con una dependencia excesiva de la buena voluntad de las empresas encargadas.
No obstante, algunas disposiciones importantes permitirán a los consumidores tomar medidas si han sido perjudicados. Por ejemplo, podrán acudir a los tribunales como grupo si un sistema de IA ha causado un daño masivo.
Las empresas podrían enfrentarse a sanciones que van desde los 7.5 millones de euros o el 1.5% de la facturación global hasta los 35 millones de euros o el 7% de la facturación mundial, dependiendo del tipo de infracción.
Finalmente, es importante destacar que la Inteligencia Artificial tiene el potencial de transformar al sector alimentario de consumo mediante el perfeccionamiento de los procesos operativos, la creación de conexiones más profundas con los consumidores y el desarrollo de soluciones innovadoras para la sostenibilidad y la nutrición.