El pasado 30 de mayo, un grupo de más de 350 investigadores, ejecutivos de empresas, ingenieros y técnicos especializados en inteligencia artificial (IA) hicieron un pronunciamiento público que, en su brevedad, busca darle fuerza a la gravedad de su preocupación. Con sencillez tipo Zen, este grupo de gurús de la IA afirmó: “Mitigar el riesgo de extinción por la IA debe ser una prioridad global, junto con otros riesgos de escala societal como las pandemias y la guerra nuclear”.
Escrito por: Roberto Castellanos
El objetivo de esta declaración, en su forma y contenido, y del grupo de expertos que lo suscriben, así como del Centro para la Seguridad de la IA, que aloja institucionalmente el esfuerzo, es doble: generar sensibilidad social sobre los riesgos de la IA y construir una base de conocimiento compartida para informar las discusiones públicas en la materia.
El Centro para la Seguridad de la IA, para generar sensibilidad social sobre los ocho riesgos de la IA para la humanidad
Te invitamos a leer: El espejo de nuestra indignidad: la ENADIS 2022
El Centro identifica al menos ocho riesgos de la IA para la humanidad: 1) La militarización de la IA; 2) La desinformación; 3) El desfasamiento entre los objetivos propios de la IA y los sociales o individuales; 4) El debilitamiento de las capacidades humanas a consecuencia de una creciente dependencia de la IA; 5) La concentración del poder de uso y abuso de la IA en quienes cuenten con los recursos económicos y técnicos suficientes para aprovecharla; 6) El surgimiento de capacidades y objetivos emergentes de la IA, no previstos ni concebidos; 7) El engaño que la IA puede facilitar y su uso como objetivo estratégico para cumplir objetivos con mayor eficiencia, y 8) El uso de la IA por parte de quienes solo buscan mayor poder.
Como ya se ha argumentado, los temores y alarmas frente a la IA recuerdan a los que ya han surgido en otras épocas frente a otras tecnologías cuyo impacto y comprensión cabal aún eran desconocidos, incluso por quienes las crearon, al momento de ponerlas a disposición del público. Pero la magnitud de los efectos y la dimensión de la incertidumbre respecto de esta nueva tecnología sí demanda al menos una pausa, una reflexión colectiva, nos dicen las y los expertos, incluso quienes crearan las bases de su creación.
Si bien todos estos riesgos representan una amenaza para la vida democrática, en las que todas las personas y grupos son iguales política y jurídicamente para participar en la toma de decisiones colectivas (incluyendo los procesos electorales), quizá la desinformación y la concentración del poder derivado del abuso de la IA, son los dos mayores riesgos para los sistemas democráticos.
A partir de una “conversación” que sostuve con ChatGPT, retomo aquí qué es lo que esta herramienta plantea sobre los riesgos de la IA para la democracia, sus instituciones y procesos. ChatGPT encuentra que hay siete desafíos: 1) la pérdida de privacidad y la vigilancia, que afectarían libertades esenciales, como la de expresión y asociación; 2) la discriminación y los sesgos incorporados en la tecnología desde su diseño; 3) la ausencia de rendición de cuentas debido a la complejidad de la propia IA y la dificultad para comprender su funcionamiento y crecimiento; 4) la disrupción que puede generar en el ámbito laboral y económico en general, produciendo nuevas desigualdades o agudizando las existentes; 5) la concentración del poder derivada del desarrollo y despliegue de la IA, facilitando que algunos actores manipulen información y/o controlen el acceso a recursos basados en la IA; 6) retos de orden ético, en materia de transparencia, sesgos, privacidad y contenido, y 7) nuevas brechas tecnológicas que exacerben las desigualdades entre países y sociedades.
A pregunta expresa, de todos estos riesgos, el que para ChatGPT representa el mayor desafío, la amenaza más significativa, es el de la discriminación y los sesgos impuestos por los sistemas de IA, porque puede exacerbar desigualdades sociales. La IA se diseña y desarrolla a partir de información y algoritmos que pueden reflejar, sin quererlo necesariamente, patrones discriminatorios, con consecuencias nocivas para grupos marginados, o generando nuevas divisiones sociales.
¿Cómo aprovecharía un político o candidato la IA en su beneficio, de forma no democrática? Le pregunté a ChatGPT, y luego de un primer rechazo, y tras aclararle que no le pedía que infringiera ninguna norma o código ético, me señaló dos ejemplos sobre cómo aprovecharse de la IA, fuera de las normas democráticas. No aludió al tema de la discriminación y los sesgos y prejuicios, sino a la minipulación informativa, la desinformación, y específicamente a dos de sus mecanismos: la microsegmentación basada en la IA (usada por primera vez en la campaña de Obama en 2012, y después durante la campaña de Brexit y las elecciones presidenciales de EEUU en el 2016) y la generación de videos manipulados conocidos como deepfake, que con gran realismo hacen parecer una declaración, un gesto, un evento como real, aunque no lo sea.
En efecto, para la democracia y sobre todo para el entorno electoral, uno de sus aspectos más delicados es la integridad de la información, la que circula entre la ciudadanía que habrá de ejercer su voto (idealmente informado), y que recibe de candidaturas, partidos, instituciones electorales y autoridades públicas. La integridad de la información en una elección es esencial porque de ella depende (aunque no solo de ella) la integridad misma de una elección.
En última instancia, la amenaza central de la IA a las democracias, y específicamente a la integridad de los procesos electorales, es la erosión de la confianza en el ecosistema informativo, en el conjunto de verdades (parciales, por ser plurales, pero aceptadas socialmente), que le dan cohesión a la vida pública por medio de una deliberación informada. Deliberación que se da a partir de la diversidad de posiciones políticas que nutren una sociedad plural, de la claridad pedagógica de instituciones que informan oportunamente las reglas de una elección, y de los medios de comunicación, ese sistema circulatorio por el que se difunde, procesa, edita e impulsa la información en un entorno democrático, basado en la libertad de expresión.
La IA es delicada para la democracia porque a diferencia de otras tecnologías previas, pueden alterar, de manera profunda e incluso aún desconocidas, dos de los mecanismos de coordinación social elementales: la información, basamento de las narrativas e historias que nos dan pertenencia y sentido colectivo, y las reglas de convivencia, que le dan regularidad, orden y estabilidad a la interacción humana.
También podría interesarte: Casi 3 millones no reciben ingresos por su trabajo
Las pastorelas, una de las tradiciones más icónicas de la Navidad en México, son mucho…
Las historias no son totalmente ciertas o falsas, se nutren entre verdades, perdidas entre recuerdos…
La Navidad, con su mensaje de esperanza y renovación, ha inspirado a artistas mexicanos a…
Le consultamos a ChatGPT cuáles son los seis platillos más populares que se preparan en…
El pasado martes 17, la inteligencia mexicana perdió a un extraordinario exponente al sobrevenir el…
Los villancicos forman parte esencial de la tradición navideña en México, mezclando elementos religiosos y…
Esta web usa cookies.