Nuevas regulaciones de la Unión Europea para prohibir o vetar una herramienta de IA

 

 

Las herramientas de I.A avanzan vertiginosamente, probablemente mucho más rápido que la voluntad o capacidad de los políticos y parlamentos en crear parámetros y regulaciones para su correcto desempeño y en esa línea, la Unión Europea lleva la delantera.

Europa ha creado  una línea muy precisapara determinar qué IA son aceptables y cuáles representan una amenaza para la población y para ello la ley contempla cuatro niveles de riesgo

Riesgo mínimo: herramientas sin impacto significativo, como filtros de spam.

Riesgo limitado: chatbots o asistentes virtuales que requieren una supervisión regulatoria ligera.

Riesgo alto: IA para decisiones críticas, como diagnósticos médicos, que estarán bajo una estricta vigilancia.

Riesgo inaceptable: tecnologías directamente prohibidas por incumplir los valores fundamentales de la UE. (Es en este nivel  una herramienta de IA etiquetada como de «riesgo inaceptable» no solo será retirada del mercado, sino que las empresas que la utilicen podrán enfrentarse a multas de hasta U$37 millones o el 7% de sus ingresos anuales.)

Según el documento oficial de la Comisión de la UE, hay un artículo clave que establece prohibiciones sobre el uso de herramientas I.A

Razones por las que la UE puede vetar una IA

Puntuaciones sociales basadas en el comportamiento de los usuarios.

Manipulación subliminal de decisiones individuales.

Explotación de situaciones vulnerables, como la pobreza o la discapacidad.

Predicción de crímenes basándose en la apariencia.

Reconocimiento biométrico para determinar orientación sexual.

Uso de reconocimiento facial en tiempo real en espacios públicos.

Interpretación emocional de usuarios en contextos laborales o educativos.

Creación de bases de datos a partir de información extraída por IA de Internet o cámaras de seguridad.

 

DOCUMENTO OFICIAL UNION EUROPEA

Please follow and like us:
0
fb-share-icon0
Tweet 44