Noticias y opiniones sinceramente independientes

cstv donar
Por la libertad a través de la verdad
Buscar
Filtros
Buscar en los títulos
Buscar en el contenido de los artículos

La UE está preocupada por la puntuación social en la IA

¡Difunde la libertad!

La UE está preocupada por la puntuación social en la IA, pero una división de la sociedad a través de la introducción de evidencia VaciNAZI aparentemente tiene menos importancia.

“Según las nuevas propuestas, se considera que las aplicaciones de IA que permiten a los gobiernos realizar puntajes sociales o explotar a los niños representan un“ riesgo inaceptable ”. Las aplicaciones utilizadas en contratación, infraestructura crítica, crédito, migración y aplicación de la ley entran en la categoría de "alto riesgo" y están sujetas a estrictas salvaguardias.

EYVOR INSTITUT | Governance Strategies for a Sustainable Digital World

La Comisión Europea ha propuesto regulaciones para el uso de inteligencia artificial (IA) a través de un marco regulatorio basado en riesgos que exige fuertes multas, prohibiciones parciales de supervisión y salvaguardas para aplicaciones de alto riesgo.

Empresas que rompen las reglas que prohíben el uso de IA 'inaceptable' o no se adhieren a algunas ' obligaciones estrictas 'podrían recibir una multa de hasta el 6% de sus ventas mundiales, o 30 millones de euros (lo que sea mayor) según el proyecto de normas anunciado por Bruselas el miércoles.

La IA es un medio, no un fin. Ha existido durante décadas, pero ha alcanzado nuevas capacidades impulsadas por la potencia informática. Esto ofrece un enorme potencial en áreas tan diversas como la salud, el transporte, la energía, la agricultura, el turismo o la ciberseguridad. También conlleva una serie de riesgos. con él ”, dijo el Comisario de Mercado Interior, Thierry Breton.

Breton dijo que las propuestas apuntan a fortalecer la posición de Europa como " centro global de experiencia en IA desde el laboratorio hasta el mercado ", Y para garantizar que la IA en Europa" respeta nuestros valores y reglas ".

El comité ahora necesita trabajar en los detalles con los estados miembros de la UE y el Parlamento Europeo antes de que las reglas entren en vigencia. Ese proceso puede llevar años.

 

En su propuesta, la UE describe lo que describe como un enfoque 'centrado en las personas' que capitaliza la promesa de la tecnología, pero también evita que viole y haga cumplir las estrictas leyes de privacidad. betrouwbaar Mantiene “Las tecnologías se clasifican según el potencial de efectos dañinos, desde prohibiciones absolutas hasta riesgos limitados y mínimos.

Según las nuevas propuestas, se considera que las aplicaciones de inteligencia artificial que permiten a los gobiernos realizar evaluaciones sociales o explotar a los niños representan un "riesgo inaceptable". Las aplicaciones utilizadas en contratación, infraestructura crítica, crédito, migración y aplicación de la ley entran en la categoría de "alto riesgo" y están sujetas a estrictas salvaguardias.

Chip in lichaam mens. Hoe, waarom & wat kun je ermee? | Peter Joosten

Todos los sistemas de identificación biométrica remota también se consideran riesgosos, con excepciones para ” estrictamente necesario "Casos como la búsqueda de menores desaparecidos y la prevención de" terrorista específico e inmediato Amenazas

El uso de estas aplicaciones de vigilancia masiva debe ser aprobado por un tribunal o una autoridad de supervisión independiente y limitado a momentos y áreas específicas.

La categoría de 'riesgo limitado' requiere obligaciones específicas de transparencia. Por ejemplo, los usuarios que interactúan con 'chatbots' deben estar informados, pero la gran mayoría de los sistemas de IA, como los filtros de spam y las IA de videojuegos, entran en la categoría de 'riesgo mínimo' que no está cubierta por las nuevas reglas.

La propuesta también pide la creación de una Junta Europea de Inteligencia Artificial para facilitar la implementación de las reglas y el desarrollo de estándares de IA.

El grupo activista European Digital Rights (EDRI) acogió con satisfacción la propuesta, pero advirtió que no va lo suficientemente lejos. a pesar de esto Es positivo" que la Comisión reconoce que algunos usos de la IA son inaceptables, prohíbe la factura "No todo el alcance de" uso inaceptable ", Especialmente todas las formas de vigilancia masiva biométrica",  Sarah Chander, experta en políticas de inteligencia artificial en EDRI, dijo.

Las regulaciones dejan demasiado margen para la autorregulación de las empresas que se benefician de la IA. Las personas, no las empresas, deberían estar en el centro de esta regulación ”, Agregó Chander.

 

Tus hijos están preparados para un chip


¡Difunde la libertad!

¡Comparte este artículo!

Suscríbete
Suscríbase a
invitado
Puede ser tu nombre real o un seudónimo
No requerido
4 comentarios
mas viejo
mas nuevo más votado
Comentarios en línea
Ver todos los comentarios
CommonSenseTV
nl Dutch
X
4
0
¿Cuál es su respuesta a esto?x