La Comisión Europea propone la primera ley reguladora de Inteligencia Artificial

La Inteligencia Artificial, una herramienta accesible

Hace unos años, la perspectiva sobre la Inteligencia Artificial era la de una herramienta lejana y que tardaría mucho en implementarse. Pero, desde hace poco, cuando estas plataformas comenzaron a hacerse más famosas y los usuarios empezaron a probarlas, se temía que sustituyeran a las personas en ciertas tareas y que supusieran un antes y un después en la sociedad. Con el paso del tiempo, la Inteligencia Artificial se entiende como una herramienta de ayuda de la que cada vez se pueden beneficiar más personas. Y, por supuesto, las pequeñas y medianas empresas.

Plataformas como ChatGPT o Google Bard, que te ayudan a resolver tus dudas en unos segundos, o Midjourney, que permite crear imágenes desde cero a partir de una simple descripción, son algunos de los ejemplos de una amplia lista de herramientas de Inteligencia Artificial que te pueden ayudar a automatizar ciertas tareas de tu día a día de manera eficiente y que te permiten aumentar tu productividad. De hecho, según un estudio de Telefónica, el 30% de las pymes ya utiliza en su día a día alguna herramienta de Inteligencia Artificial y el 60% está planeando incorporarlas.

Sin embargo, como todas las creaciones innovadoras, albergan una serie de peligros. Por ello, la Unión Europea se ha puesto manos a la obra y ha propuesto la primera ley reguladora de Inteligencia Artificial del mundo, que tiene como principal reto establecer unas líneas rojas para el desarrollo y uso de estos sistemas.

¿Quieres conocerla? Aquí te damos algunos datos.

Transparencia, control y protección: así será la ley reguladora de la UE

El 9 de diciembre de 2023 el Consejo y el Parlamento de la Unión Europea alcanzaron un acuerdo para establecer las primeras normas del mundo que regulan el uso de la Inteligencia Artificial.

Este acuerdo, conocido como Reglamento de Inteligencia Artificial, plantea garantizar que los sistemas que se introduzcan en la Unión Europea sean seguros y respeten los derechos y valores de la Comunidad. Además, se ha convertido en un logro histórico, ya que permitirá desarrollar estas nuevas tecnologías y espacios de innovación respetando los derechos fundamentales de los ciudadanos.

Por ello, esta ley se basa en una serie de principios fundamentales. A continuación, te mostramos algunos:

  1. Garantizar la privacidad y seguridad mediante una clasificación de sistemas de IA en función del riesgo que puedan suponer para las personas y el medio ambiente. Estos niveles de riesgo serían mínimo, limitado, alto y prohibido.
  2. Fomentar la transparencia con el objetivo de corregir prácticas inadecuadas. Por ello, se debe especificar cómo funciona un sistema de IA y su proceso de recogida de datos.
  3. Establecer una definición clara que permita distinguir la Inteligencia Artificial de otros sistemas de software.
  4. Crear una nueva estructura de gobernanza que supervise los modelos de IA para garantizar el cumplimiento de las normas en todos los Estados miembros.

Esta ley puede suponer el impulso definitivo para que las pymes se sientan seguras y decidan apostar por las herramientas de Inteligencia Artificial. Contar con una estructura organizativa que regula e impulsa el uso y el desarrollo de estos sistemas permite a las pequeñas y medianas empresas dar el paso e incorporar estas plataformas en sus labores diarias.

Los próximos desafíos de la ley

Sin embargo, a esta ley todavía le queda un largo camino por recorrer. Según el acuerdo, debe aplicarse 2 años después de su entrada en vigor, salvo en algunas excepciones específicas que puedan presentarse. Durante este tiempo, se continuará trabajando para terminar de perfilar todos los apartados y, sobre todo, mostrándose especialmente atentos a las próximas novedades y actualizaciones que puedan surgir.

Este acuerdo tiene como principal objetivo garantizar que los sistemas que se introduzcan en la Unión Europea respeten los derechos y valores de la Comunidad.

Estas herramientas, que han servido de gran ayuda para el desarrollo de nuevos procesos de trabajo, pueden suponer un riesgo para las personas si no se utilizan de manera ética y responsable. De este modo, las plataformas que rastreen de manera indiscriminada imágenes faciales procedentes de internet, reconozcan emociones o categoricen biométricamente a las personas para deducir sus datos sensibles quedarán totalmente prohibidas.

También, se indica que se establecerán una serie de excepciones en el ámbito policial que permita, mediante una autorización previa, utilizar herramientas de Inteligencia Artificial calificadas de alto riesgo en situaciones de emergencia.

Además, se han fijado las sanciones por infracciones del reglamento en función de su gravedad. De esta manera, los sistemas calificados como prohibidos pueden suponer multas del 7% del volumen de negocio de una empresa o de 35 millones de euros como importe máximo; del 3% o de 15 millones de euros por incumplir las obligaciones del reglamento; y del 1,5% o 7,5 millones de euros en caso de presentar información inexacta. No obstante, el acuerdo establece límites proporcionados en caso de que una pyme cometa una infracción.

La primera ley reguladora de Inteligencia Artificial del mundo ya ha comenzado a dar sus primeros pasos. Y lo hace con el objetivo de proteger a las personas y de promover la innovación desde un punto de vista responsable con la sociedad y con el medio ambiente, mediante el desarrollo de nuevas tecnologías que ayuden a reducir el impacto de la huella de carbono.

Si quieres estar al tanto de lo último en digitalización, no dudes en visitar nuestra sección de noticias.

Compartir en:
X