La Comisión Europea propuso una normativa para proteger a los ciudadanos ante los peligros de la inteligencia artificial (IA), pero los países de la UE y los diputados deben negociar el borrador en un diálogo a tres bandas antes de que se convierta en ley.
Los parlamentarios están trabajando en más de 3,000 enmiendas, pero aún enfrentan desafíos como encontrar un equilibrio entre la innovación y la protección de los derechos fundamentales de los ciudadanos.
La ley clasifica las distintas herramientas de IA según su nivel de riesgo percibido, pero los debates han dejado poco margen para abordar tecnologías de IA generativa en expansión agresiva como ChatGPT y Stable Diffusion.
Las grandes empresas tecnológicas, que han invertido miles de millones de dólares en la nueva tecnología, han presionado intensamente para mantener sus innovaciones fuera del ámbito de la clarificación de alto riesgo. Se teme que la complejidad y la falta de avances retrasen la legislación hasta el año que viene.
Peligros de la Inteligencia Artificial:
La inteligencia artificial tiene el potencial de perjudicar a los humanos de varias maneras si no se utiliza y se desarrolla de manera responsable. Algunos ejemplos son:
- Pérdida de empleos: La IA puede automatizar muchas tareas que actualmente realizan los humanos, lo que podría resultar en una pérdida significativa de empleos en algunos sectores. A medida que la IA se vuelve más sofisticada, es posible que incluso los trabajos de nivel superior se vean amenazados.
- Sesgo y discriminación: La IA puede perpetuar el sesgo y la discriminación si se entrena con datos sesgados o si se le da una tarea discriminatoria. Por ejemplo, si se entrena un algoritmo de contratación con datos históricos que reflejan un sesgo contra las mujeres o las minorías étnicas, es probable que el algoritmo perpetúe ese sesgo en sus decisiones de contratación.
- Pérdida de privacidad: La IA puede recopilar y analizar grandes cantidades de datos personales, lo que podría poner en riesgo la privacidad de las personas. Si estos datos se utilizan de manera incorrecta o se filtran, pueden causar daños significativos.
- Amenaza para la seguridad: La IA puede ser utilizada para crear armas autónomas o ciberataques automatizados que podrían representar una amenaza para la seguridad global.
- Dependencia excesiva: A medida que la IA se vuelve más omnipresente en nuestra vida diaria, es posible que nos volvamos demasiado dependientes de ella. Esto podría hacernos más vulnerables a fallos de la IA o a ataques cibernéticos.
Es importante tener en cuenta estos riesgos y trabajar para desarrollar la IA de una manera ética y responsable que tenga en cuenta el bienestar humano y la seguridad a largo plazo.