Redacción Animal Político · 30 de septiembre de 2023
Lo que se denomina como ‘inteligencia artificial (IA) no hace referencia a una tecnología en específico, sino que abarca una amplia gama de tecnologías, técnicas computacionales y conjunto de datos para la resolución de problemas. Su desarrollo y despliegue implica también diferentes niveles de uso y profundidad de aprendizaje para realizar tareas y sistemas capaces de resolver problemas complejos.
Como tecnología emergente y en desarrollo es común encontrar afirmaciones audaces sobre cómo la IA resolverá un sinnúmero de problemas sociales. Este entusiasmo excesivo, sumado a la falta de transparencia y responsabilidad en la forma en que algunos sistemas de IA operan, bajo la dirección de gobiernos o empresas, puede ocasionar consecuencias negativas para los derechos de las personas. Esto puede ocurrir mediante el abuso de esta tecnología para llevar a cabo vigilancia masiva o selectiva de la población; para tomar decisiones discriminatorias o excluyentes; para justificar la detención de personas que “actúen” de forma sospechosa; para “predecir” que alguien no pagará determinado préstamo bancario y por lo tanto es mejor negárselo, así como de otras aplicaciones de la IA que afianzan y amplifican la violación de derechos humanos o la desigualdad. Aunque la regulación de algunos de sus usos sea necesaria para evitar lo anterior, la diversidad en los sistemas y procesos de IA significan un desafío para ello, ya que cada uno plantea prioridades en materia de derechos humanos, cuestiones éticas y necesidades regulatorias específicas.
El mismo desafío se presenta en la mayoría de regulaciones destinadas a garantizar la ciberseguridad, ya que -generalmente- las propuestas legislativas tienen un trasfondo punitivista que nada hace por garantizar la seguridad informática de una nación. En cambio, lo que usualmente se busca es crear “ciberdelitos” para perseguirlos y castigarlos, aunque no exista realmente una definición consensuada en el derecho internacional sobre lo que un “ciberdelito” constituye. Lo anterior implica que, al intentar regular para proteger a la infraestructura informática de un país y a las personas usuarias de las tecnologías, el resultado sean iniciativas legislativas con un sinfín de delitos inventados y escritos con términos amplios, vagos e imprecisos, que implican la criminalización del uso cotidiano y legítimo de la tecnología, o que implican que la persecución de determinada conducta sea prácticamente imposible.
Desafortunadamente, la práctica de intentar legislar sobre lo que se desconoce y lo que no está debidamente conceptualizado es común en México cuando se trata de tecnología, Internet y derechos digitales. Haciendo un mapeo de las agendas legislativas para lo que resta del 2023, observamos que la IA y la ciberseguridad se han popularizado entre las y los legisladores -de distintos partidos políticos- como temas destacados y prioritarios.
Durante años, la sociedad civil especializada en derechos digitales ha analizado de manera crítica y propositiva toda propuesta de ley que busque regular distintos ámbitos de los derechos y espacios digitales. Los análisis de estas iniciativas han permitido identificar tendencias preocupantes: errores graves e intenciones autoritarias, que, de ser aprobadas por los congresos, podrían ser utilizadas para vulnerar derechos humanos en lugar de garantizarlos.
La regulación es necesaria en múltiples contextos digitales actuales, tanto para aprovechar las oportunidades que las nuevas tecnologías brindan, como para atender las afectaciones que presentan. Por lo tanto, es fundamental que desde la ciudadanía podamos leer críticamente las propuestas de legislación que surjan, con tal de poder identificar sus deficiencias y riesgos. Con ese fin, compartimos 5 elementos a cuestionar de cara a las agendas legislativas -federal y estatales- en materia de tecnologías, sobre todo en materia de IA y ciberseguridad:
Cuando los procesos legislativos no garantizan la participación libre, activa y significativa de distintas voces, ni se consulta a especialistas y grupos potencialmente impactados por la legislación, éstos suelen ser deficientes o improvisados y, en el peor de los casos, ocultan intenciones que buscan favorecer a algún grupo de poder o afianzar la opresión. Además, las personas tienen distintas experiencias e impactos en los entornos digitales debido a brechas de acceso, brechas de calidad tecnológica, por marginación histórica, o por desigualdad, pobreza o situación de opresión política, social y/o económica. Toda legislación debe considerar dichas desigualdades para evitar afectaciones desproporcionadas y así garantizar todos los derechos para todas las personas.
La falta de preparación especializada en procesos legislativos deriva en ocurrencias que buscan “innovar” y que terminan creando nuevas pseudo-definiciones que pudieran no llegar a ser compatibles con la normatividad vigente o, peor aún, que generen tal ambigüedad que puedan ser utilizadas arbitrariamente y con mala fe en contra de personas inocentes. Lo anterior, sobre todo, cuando se pretenden crear “nuevos” delitos tan solo por ser conductas que se ejecuten o se lleven a cabo con la tecnología, ya que esto es problemático tanto en el plano jurídico como en el de los derechos humanos. Es importante recordar que una ley deficiente generará una cadena de amparos y apelaciones de inconstitucionalidad e inviabilidad en los años subsecuentes a su publicación.
Ante los contextos generalizados de riesgos asociados a la desigualdad e inseguridad en México, o incluso apelando a la eficacia y economía de diversos procesos, la promesa de la tecnología omnipotente es atractiva para justificar la implementación de “soluciones” que puedan ser violatorias de los derechos humanos y que, en muchos casos, ni siquiera se ha demostrado su efectividad para resolver ningún tipo de problema que aqueja a la sociedad. Las tecno-soluciones pueden llegar a generar intromisiones desproporcionadas al derecho a la privacidad, avalando el perfilamiento, el abuso intensivo de datos personales, o incluso el espionaje. También pueden implicar un impacto en la libertad de expresión por las mordazas y censura que se puedan generar.
Por deficiencias en la técnica legislativa o por presión de ciertos grupos de poder, una ley podría castigar usos de la tecnología cotidianos e inocentes, tales como el intercambio de archivos, la difusión de información, la reparación de equipos o el desarrollo de software. Esto vulnera los derechos humanos y limita otras posibilidades tecnológicas: como la innovación y el emprendimiento. Toda iniciativa legislativa que desconozca los ambientes digitales propondrá acciones de regulación inoperantes tecnológicamente o incompatibles con los derechos humanos.
Toda regulación que pueda implicar la restricción directa o indirecta del uso que las personas le dan a las tecnologías -sobre todo de Internet- debe ser analizada de forma minuciosa, de tal manera que se cumplan los criterios necesarios de legalidad, idoneidad, necesidad y proporcionalidad. El acceso y uso de las tecnologías habilitan el ejercicio de la libertad de expresión e información, educación y el acceso a la cultura, ciencia y conocimientos, por mencionar algunos, de ahí la necesidad de realizar un análisis de impacto en los derechos digitales.
En suma, la importancia de vigilar críticamente el proceso legislativo en materia de tecnologías radica en que las personas podamos ser libres de ejercer nuestros derechos digitales sin temor a la censura, abuso o vigilancia. Es necesario, como ciudadanía, exigir a las y los legisladores que cualquier regulación en materia de IA o ciberseguridad respete los derechos humanos y contribuya realmente a garantizar la protección de las personas usuarias de las tecnologías en México.
* Juan Manuel Casanueva es director de SocialTic y Martha Tudón es oficial del programa de Derechos Digitales para ARTICLE 19 México y Centroamérica.