top of page
Buscar
  • Foto del escritorConsejo COLEF

#diadeinternet: nos sumamos al decálogo por una IA comprometida con las personas


#diadeinternet: NOS SUMAMOS AL DECÁLOGO POR UNA INTELIGENCIA ARTIFICIAL COMPROMETIDA CON LAS PERSONAS

En el Día de Internet el Consejo COLEF se suma al Manifiesto ‘Por una inteligencia artificial comprometida con las personas’, integrado por un decálogo que busca establecer principios fundamentales para guiar el desarrollo y la implementación de inteligencia artificial de manera ética y respetuosa con las personas. Este Manifiesto se leerá en el Senado por el Comité de Impulso del #diadeinternet, al que pertenece Unión Profesional.

El 27 de marzo de 2006, la Asamblea General de las Naciones Unidas adoptó la Resolución  60/252, en la cual se proclamaba el 17 de mayo Día Mundial de la Sociedad de la Información  #diadeinternet, efeméride ideada para promover el buen uso y difundir los beneficios que brindan Internet y las tecnologías digitales para todas las personas.


Este año el lema es Por una inteligencia artificial comprometida con las personas, y el Comité de Impulso de este Día, en el que se encuentra Unión Profesional (a la que pertenece el Consejo COLEF), ha impulsado un Manifiesto, en forma de decálogo, que pone en el centro a la persona, a la humanidad y a la ética.


Este Manifiesto se leerá en el acto que hay previsto en el día de hoy, viernes, 17 de mayo, en el Senado, y podrá seguirse online en directo a partir de las 12:00 h. El Consejo COLEF ya se ha suscrito a este posicionamiento, que compartimos a continuación, y al que pueden sumarse todas las organizaciones y administraciones que lo deseen escribiendo un correo a diadeinternet@aui.es.


 

CONTEXTO


La inteligencia artificial (en adelante, IA) tiene el potencial de transformar la forma en que interactuamos con el mundo y, a la vez, nos presenta una serie de retos importantes y grandes oportunidades. Actualmente, ya se utiliza en numerosas aplicaciones comerciales y de producción que abarcan todo tipo de industrias y las ventajas de su utilización son evidentes (automatización y mejora de procesos, productividad, control y optimización de recursos, reducción de errores, etc.). Detrás de estas ventajas se plantean algunos desafíos que el legislador, la industria y los propios ciudadanos no pueden obviar para que esta IA sea social, inclusiva y respetuosa con las personas.

 

Todo ello nos pone delante de ineludibles cuestiones ya abordadas en noviembre de 2021 por la UNESCO en la primera norma mundial sobre la ética de la IA: la ‘Recomendación sobre la ética de la inteligencia artificial’. La Unión Europea ha dado un paso significativo en la regulación de los sistemas IA con la reciente aprobación del Reglamento de inteligencia artificial (AI ACT). Esta norma, que se espera entre en vigor en dos años, es el primer marco legal integral sobre IA en el mundo, fijando un momento histórico en la regulación de esta tecnología.

 

Para que el desarrollo y la innovación tecnológica de los sistemas de IA sean aceptados, es necesario que superen el filtro social. Para esto no basta con una serie de principios éticos que, por otro lado, son fundamentales. Es necesario que los sistemas de IA estén alineados y actúen de forma coherente con las creencias y objetivos humanos.

 

Por todo ello, es necesario velar porque el desarrollo e implementación de la IA esté comprometida con la ciudadanía. De lo contrario, se corre el riesgo de que estas tecnologías sean percibidas como negativas y produzcan un rechazo social, perdiendo la oportunidad de aprovecharse de los beneficios de desplegar la IA en todo su potencial.


 

📢 DECÁLOGO 📢


1. Transparencia, comprensión, accesibilidad y control 

Los resultados de los modelos utilizados por la IA deben de estar documentados, ser comprensibles y accesibles para todas las personas, independientemente de su capacidad física,  sensorial o cognitiva, promoviendo la inclusión y la igualdad de oportunidades en el marco del  reglamento de IA (AI ACT). Es necesario impulsar la transparencia y la implementación de normas, procesos y mecanismos de supervisión que permitan comprobar que estos principios se cumplen, poniendo en valor a aquellos modelos de IA que permitan recibir comentarios y apelaciones. 


2. Alfabetización, desarrollo de competencias y empleo  

Fomentar la formación de profesionales cualificados que promuevan la calidad y el desarrollo  responsable de estos sistemas, impulsando la formación y capacitación sobre IA, así como el  acceso a documentación que facilite su entendimiento. Impulsar, asimismo, la formación básica  de la ciudadanía en IA, sus posibilidades y las consecuencias derivadas de un uso inadecuado de  de forma que puedan tomar decisiones informadas en su relación con esta tecnología con especial foco en la gente joven, para que estén preparados para el acceso a empleos en los que puedan explotar todo el potencial de la IA. 


3. Privacidad por diseño y acceso a los datos 

Integrar medidas de privacidad desde la fase inicial del desarrollo de productos y servicios  basados en IA, asegurando que la recolección y el procesamiento de datos se realizan conforme a  la normativa de protección de datos. Facilitar el acceso a los datos para poder entrenar modelos  de IA incentivando su uso en todos los ámbitos.


4. Ciberseguridad 

Implementar medidas robustas de ciberseguridad para concienciar y promover un uso seguro y  responsable de la IA. Del mismo modo, utilizar la IA  para mejorar la  ciberseguridad y resiliencia de productos, servicios, sistemas y, por ende, de las empresas y la  sociedad en general. 


5. Equidad y no discriminación 

Mitigar sesgos y discriminación en los conjuntos de datos utilizados para el entrenamiento de  modelos y asegurar que la IA no perpetúe ni amplifique prejuicios existentes en la sociedad. Luchar contra las brechas sociales que puedan surgir derivadas del uso de la IA. 


6. Propiedad intelectual 

Garantizar los derechos de propiedad intelectual en las nuevas situaciones creadas por la IA en esta materia (marcas, diseños, patentes o derechos de autoría). 


7. Marco legal y ético 

Seguir desarrollando marcos legales y deontológicos específicos que definan claramente las  obligaciones y responsabilidades de los desarrolladores, proveedores y usuarios en los sistemas que hagan uso de la IA. 


8. Responsabilidad 

Establecer protocolos en colaboración con la industria para el seguimiento y la revisión periódica  de los avances de la IA, adaptándolos a los cambios normativos y legales, así como a las  innovaciones y desarrollo de la tecnología. 


9. Sostenibilidad e impacto ambiental 

El uso de las tecnologías de IA debe evaluarse en función de su impacto en la sostenibilidad,  entendida como un concepto dinámico en constante evolución que incluya los Objetivos de  Desarrollo Sostenible (ODS) de Naciones Unidas. 


10. Co-gobernanza y participación ciudadana 

La participación de las partes interesadas a lo largo del ciclo de vida de los sistemas de IA es  necesaria para el desarrollo de enfoques inclusivos de gobernanza involucrando a la sociedad civil  en este proceso. Fomentar la colaboración entre expertos en IA, ética y otras disciplinas  relevantes para abordar de manera integral los desafíos técnicos y sociales asociados con la IA. Es  importante que los gobiernos trabajen en colaboración a nivel internacional para establecer  estándares comunes, compartir mejores prácticas y abordar los desafíos transfronterizos.



 


 

Cuantas más personas estemos colegiadas, más se escucharán nuestras voces.

Es tu responsabilidad, es tu compromiso con la profesión y la sociedad.

Si todavía no te has colegiado, puedes hacerlo de forma fácil y sencilla a través de la


73 visualizaciones1 comentario
bottom of page