La llamada inteligencia artificial (IA) no es una simple herramienta, sino que comienza a fusionarse con nuestro ambiente y con quienes somos, transformando nuestra vida cotidiana y su impacto no deja ambiente sin transformar, desde la educación hasta la medicina, desde la economía y la política, hasta el trabajo y los vínculos entre las personas. La IA no es ni moral ni filosóficamente neutra, no es un instrumento, sino una nueva realidad con la que convivimos y que transforma también lo que somos, como nos pensamos y cómo vivimos. Nos encontramos en una dinámica de interacción mutua, de co-participación de operaciones.
Las preguntas fundamentales para quienes reflexionan sobre la IA son de carácter ético y político, porque nuevas posibilidades traen consecuencias evitables o imprevisibles. Que la tecnología abra nuevos espacios de acción implica necesariamente abrir una discusión sobre esas acciones, que nunca son neutras. Nos exige pensar en las consecuencias. No es una novedad que las nuevas tecnologías hacen muchas más cosas que aquellas para las que fueron pensadas y creadas. ¿Hasta dónde delegaremos en las máquinas nuestras decisiones? ¿En qué ámbitos se discutirán los sesgos y criterios de la IA para la toma de decisiones?
Mitos y creencias de la Inteligencia Artificial
A pesar de los impresionantes avances con la inteligencia artificial generativa y nuevas transformaciones en ciencia y tecnología, lo cierto es que no hablamos de “inteligencia” en el sentido humano, porque aunque la IA pueda realizar por aprendizaje automático una serie de funciones que hacemos los humanos (calcular, procedimientos matemáticos, selección de información, detectar patrones, reproducir lo aprendido) en un tiempo y cantidad de información imposible para un ser humano, eso no significa que piense humanamente. La IA no tiene conciencia ni subjetividad, aunque pueda simular emociones e interactuar con humanos aprendiendo y reaccionando a la información que recibe. El problema es cuando reducimos inteligencia a cálculo y manejo de información. Las máquinas no producen sabiduría porque no tienen subjetividad, no tienen autoconciencia, aunque puedan simularla y hacernos creer que sí e impresionarnos.
Las máquinas no producen sabiduría porque no tienen subjetividad, no tienen autoconciencia, aunque puedan simularla y hacernos creer que sí e impresionarnos.
La investigadora Kate Crawford escribió: “sostengo que la IA no es artificial ni inteligente. Más bien existe de forma corpórea, como algo material, hecho de recursos naturales, combustible, mano de obra, infraestructuras, logística, historias y clasificaciones. Los sistemas de IA no son autónomos, racionales ni capaces de discernir algo sin un entrenamiento extenso y computacionalmente intensivo, con enormes conjuntos de datos o reglas y recompensas predefinidas. De hecho, la IA como la conocemos depende por completo de un conjunto mucho más vasto de estructuras políticas y sociales. Y debido al capital que se necesita para construir IA a gran escala y a las maneras de ver que optimiza, los sistemas de IA son, al fin y al cabo, diseñados para servir a intereses dominantes ya existentes”.
Anticipación y responsabilidad política
La IA desarrolla un tipo de funciones de manejo de datos que nos supera ampliamente en capacidad y velocidad, pero no sustituye otro tipo de capacidades humanas que tienen que ver sobre cómo nos relacionamos, sobre el sentido de la vida, que no se resuelven con datos, estadísticas y patrones. La reducción del conocimiento a información lleva a un ingenuo optimismo sobre diversas posibilidades de la IA respecto de la vida humana. Sea cual sea la dirección que tome el desarrollo de la IA, no podemos delegarle la responsabilidad ni la sabiduría. Todavía existe cierta ingenuidad en pensar que todo se soluciona con mayor cantidad de datos, como si la respuesta a los dramas humanos dependiera exclusivamente de manejo de información y no de una profunda reflexión sobre lo que somos y qué queremos realmente hacer con el futuro de los que vendrán.
La reducción del conocimiento a información lleva a un ingenuo optimismo sobre diversas posibilidades de la IA respecto de la vida humana.
Es claro que no podemos esquivar el progreso tecnocientífico y es deseable que pensemos responsablemente en cómo acompañamos estos procesos. Lo que sería irresponsable es caer en un determinismo que suponga que no hay nada más que hacer que subirse a la ola sin pensar, como si nada dependiera de nosotros más que aceptar un futuro ya programado por fuerzas incontrolables. El futuro lo escribimos con nuestras decisiones del presente y es de celebrar que los actores políticos estén pensando en anticiparse a lo que vendrá de modo responsable y escuchando a los que saben desde diversas disciplinas. La gobernanza de la tecnología será cada vez más un problema ineludible en la agenda política.
Impacto político de la IA
No es desconocido que nuestra interacción cotidiana con los sistemas informáticos entrega una inmensa cantidad de datos que revelan mucho de nosotros, desde nuestras preferencias hasta nuestra situación familiar, laboral y académica. De esa masa informativa se alimentan algoritmos de todo tipo, que aspiran a saber más de nosotros. Varios investigadores están preocupados porque vayamos renunciando progresivamente a libertades conquistadas, en la comodidad de una libertad asistida donde la IA, que adquiere un carácter “sagrado”, nos diga quiénes somos y qué queremos. Sin apenas discutirlo nos vamos abandonando a un nuevo poder tecnocrático imparable, aceptando que resuelvan gran parte de nuestra vida. Salvo que nos animemos a hacernos preguntas y a trabajar sobre ellas:
¿Qué desafíos presenta la IA a la filosofía política? ¿Cómo manejar los sesgos de la programación de la IA a la hora de contratar personas, evaluarlas en su trabajo o en la persecución del crimen sabiendo que alucina, se equivoca y también discrimina? ¿Cuáles serán los efectos políticos de la robótica en términos de justicia e igualdad? ¿Cuáles son los impactos que tiene sobre la democracia a la hora de manipular votantes? ¿Cómo está transformando el periodismo y la generación de noticias? ¿Cómo transforma las relaciones humanas, el aprendizaje y la salud mental? ¿Cuál debería ser el grado de participación ciudadana en la regulación de la IA? ¿Cómo impacta en los animales y en la producción agrícola? ¿Qué efectos puede tener sobre el clima y el medioambiente? ¿Cómo serían los derechos digitales para la protección de datos y asegurar el respeto por la dignidad de las personas?
Bioética, tecnología y futuro
Poco se repara en las consecuencias menos visibles, pero no menos impactantes sobre el medioambiente por el uso de recursos y energía que demanda la IA, ya que genera una considerable cantidad de huella de carbono. La producción de dispositivos electrónicos que trabajan con IA requiere la extracción de materias primas con grave impacto medioambiental.
El impresionante desarrollo de las ciencias biomédicas en las últimas décadas nos va mostrando el poder que vamos adquiriendo sobre nosotros mismos, nuestra especie y el medio ambiente. Muchas promesas que hace pocos años parecían de ciencia ficción son hoy posibles. Los proyectos deinterfaces entre cerebros humanos e inteligencia artificial, exigen cada vez más una reflexión antropológica, ética, social y política.
Los avances en inteligencia artificial aplicada a la salud, en la biología sintética, en la edición genética y en neurociencias, así como el impacto ambiental de nuestras acciones sobre la naturaleza y otras especies, plantean cada vez más preguntas no solo a los investigadores y al personal de la salud, sino a juristas, poderes públicos y a todos los ciudadanos. ¿Debemos hacer todo lo que resulte técnicamente posible en procreación asistida para “mejorar” la “calidad” de los futuros niños? ¿Deberíamos editar genéticamente embriones? ¿Merece ser preservado el ser humano tal como lo conocemos o deberíamos modificarnos como plantean algunos transhumanistas?
Las decisiones que tomamos en estas cuestiones, además de ser complejas porque exigen una gran responsabilidad sobre los demás y especialmente sobre las futuras generaciones, no obtendrán su respuesta fundamentalmente de los aportes de la acumulación de información y pruebas, sino de un profundo, riguroso y sólido debate filosófico que tenga en cuenta las evidencias científicas.
Reflexionar sobre estas cuestiones no es un tema solo de especialistas, sino que requiere de una responsabilidad colectiva, porque se trata de cuestiones relevantes sobre el futuro de nuestra humanidad.
Bibliografía
- Coeckelbergh, Mark (2021). Ética de la inteligencia artificial. Madrid: Cátedra.
- Coeckelbergh, Mark (2023). La filosofía política de la Inteligencia Artificial. Madrid: Cátedra.
- Crawford, Kate (2022). Atlas de la inteligencia artificial: poder, política y costos planetarios. Buenos Aires: FCE.
- Lasalle, J. M. (2019). Cyberleviatán: El colapso de la democracia liberal frente a la revolución digital. Madrid: Arpa.
- Sigman, M. y Bilinkis, S. (2023). Artificial: La nueva inteligencia y el contorno de lo humano. Barcelona: Penguin Random House.
Artículo publicado anteriormente en Diálogo Político
¿Qué te pareció este artículo? Deja tu opinión: