Es impactante la velocidad con la que la inteligencia artificial está cada vez más presente en nuestras vidas y, de acuerdo a las voces de varios analistas especializados, su uso puede tener consecuencias muy importantes para nuestra sociedad, nuestra economía y nuestros derechos. Así que más vale que estemos preparados y sepamos cómo regularla de forma ética y responsable.
La inteligencia artificial (IA) es esa tecnología que permite a las máquinas aprender, razonar y tomar decisiones basándose en algoritmos y datos. La IA puede hacer cosas increíbles, como detectar enfermedades, crear arte, optimizar procesos, mejorar la educación, combatir el cambio climático y mucho más. Pero también puede hacer cosas terribles, como discriminar, manipular, espiar, engañar, atacar y destruir. Por eso es necesario establecer normas claras y universales que garanticen que la IA se usa para el bien común y no para el mal.
¿Y quién se encarga de hacer esas normas? Pues hay varias iniciativas a nivel nacional e internacional que buscan regular la IA de forma ética. Por ejemplo, la UNESCO ha aprobado el primer marco ético sobre inteligencia artificial, que define valores y principios comunes que guiarán la construcción de la infraestructura jurídica necesaria para garantizar un desarrollo saludable de la IA. Entre otras cosas, este marco ético afirma que todos los individuos deberían poder acceder a sus registros de datos personales o incluso borrarlos y prohíbe explícitamente el uso de sistemas de IA para la calificación social y la vigilancia masiva.
Otro ejemplo es lo que está haciendo la Unión Europea, que ha propuesto una ley de inteligencia artificial que se enfoca principalmente en fortalecer las reglas sobre la calidad de los datos, la transparencia, la supervisión humana y la responsabilidad sobre esta tecnología. Esta ley clasifica los sistemas de IA en cuatro categorías según su nivel de riesgo: prohibido, de alto riesgo, de riesgo limitado y de riesgo mínimo. Los sistemas prohibidos son aquellos que violan los derechos fundamentales o manipulan el comportamiento humano. Los sistemas de alto riesgo son aquellos que se usan en ámbitos sensibles como la salud, la seguridad o la justicia y que deben cumplir con requisitos estrictos de calidad, seguridad y transparencia. Los sistemas de riesgo limitado son aquellos que implican algún tipo de interacción con los usuarios, como los asistentes virtuales o los chatbots, y que deben informar claramente de que se trata de una IA y no de un humano. Los sistemas de riesgo mínimo son aquellos que tienen un impacto menor en los usuarios o en la sociedad, como los filtros de Instagram o los videojuegos, y que no están sujetos a obligaciones específicas.

Y por último, tenemos el caso de México, donde se ha presentado una iniciativa para expedir la ley para la regulación ética de la inteligencia artificial para los Estados Unidos Mexicanos. Esta ley tiene como objetivo establecer las bases para el desarrollo responsable e inclusivo de la IA en el país, promoviendo su uso para el bienestar social, el crecimiento económico y la innovación científica y tecnológica. La ley también busca garantizar el respeto a los derechos humanos, la protección de datos personales, la no discriminación, la equidad de género y la diversidad cultural en el uso de la IA.
Como ven, hay muchos esfuerzos por regular la IA de forma ética y responsable en el mundo. Pero también hay muchos desafíos y dilemas que resolver. ¿Cómo podemos asegurar que la IA sea transparente y explicable? ¿Cómo podemos evitar los sesgos y los prejuicios en los algoritmos y los datos? ¿Cómo podemos proteger nuestra privacidad y nuestra seguridad frente a la IA? ¿Cómo podemos fomentar la participación ciudadana y el control democrático sobre la IA? ¿Cómo podemos garantizar que la IA sea inclusiva y accesible para todos? Estas son algunas de las preguntas que debemos hacernos como sociedad si queremos aprovechar las oportunidades y evitar los riesgos que nos ofrece esta tecnología.
Por: María del Carmen Gutiérrez Morales / @mama.momo.60






Deja un comentario