Relatoría del conversatorio sobre Saberes Humanos
Relatoría del conversatorio sobre Saberes Humanos
Este relatoria ha sido escrita por Marga Padilla a raiz del conversatorio Saberes Humanos
entre Diana Franco Eguren y Belén Gopegui moderada por Margarita Padilla en el marco del programa Ensamblajes

- Sapiens
En un contexto de crisis medioambiental y de colapso de la biodiversidad en el que urge repensar qué es lo que, desde lo humano, se puede aportar a favor de la biodiversidad y del cuidado de los múltiples ecosistemas y sus entornos, la propuesta de este conversatorio fue “ponernos las gafas” de la inteligencia artificial para mirar, desde ahí, qué podemos aprender sobre la sabiduría humana.
Por primera vez en la historia tenemos artefactos artificiales calificados de “inteligentes”. Por primera vez podemos medirnos con inteligencias que no están encarnadas y, por tanto o, por el momento, carecen de subjetividad y de conciencia.
¿Puede haber inteligencia sin subjetividad y sin conciencia?
- Explicar el mundo
Explicar el mundo, explicitarlo, es interesante. Para ello tenemos datos, información… La inteligencia artificial correlaciona datos pero no hace un razonamiento causal, llega a conclusiones “válidas” solo si asumimos que no nos importa la causa.
La inteligencia artificial es fruto de colaboración entre lo humano y lo maquínico. No es una inteligencia autónoma. Su funcionamiento está plagado de decisiones humanas: que datos considero relevantes, cuáles se pueden medir y cuáles no… Y su uso también: cuánto tiempo tengo para tomar esta decisión, hasta qué punto me puedo manejar en la incertidumbre, porqué necesito una conclusión rápida ya… muchas preguntas “humanas” que la inteligencia artificial no puede responder.
La inteligencia humana, a lo largo de millones de años, ha sido diseñada para maximizar unos objetivos: sobrevivir, colaborar, practicar altruismo, crear sentido y significado… Ahora estamos dejando de lado esos saberes incrustados en los cuerpos biológicos, en pro de otras “inteligencias” que también tienen objetivos asignados (maximizar algún beneficio para alguien, habitualmente económico). ¿Quién asigna y administra esos objetivos? ¿Se trata, verdaderamente, de objetivos “humanos”?
- Caja negra
Las cajas negras, con su opacidad, son interesantes porque hay diferentes formas de enfrentarse a ellas. Una gran mayoría de personas conviven tranquilas con las cajas negras, porque aceptan que dentro de ellas hay una información que avala alguien que detenta poder y, por tanto, les parece adecuada y la dan por buena.
Los humanos también somos cajas negras, no sabemos explicar porqué hacemos lo que hacemos, aunque queremos creer que podemos ser interpretados. Si renunciásemos a ello, sería tanto como aceptar la arbitrariedad. Entendemos que tenemos derecho a pedir explicaciones. Únicamente el poder está exento de darlas.
Cuando el conocimiento se hace opaco, muchas profesiones quedan limitadas a lo que la máquina puede hacer. Antes de introducir las máquinas hay que hacer que los humanos se comporten como máquinas. Así podrán ser sustituidos, y las sustituciones quedarán legitimadas (“la máquina lo hace más rápido y mejor”).
Entre tanto desarmamos las cajas negras, la recogida de datos sí que puede ser transparente. ¿Con cuántas manos y con cuáles manos has trabajo para diseñar ese dispensador de jabón que solo reconoce las manos de piel clara?
- Bichos
Lynn Margulis explicó que la evolución tiene que ver con la colaboración. Nos anima a ver la vida no tanto como un caldo primordial sino como materia que elige. Las especies se crean a través de relaciones físicas, de fusión ente especies. Somos simbiontes fruto de largos y lentos ensamblajes.
Ahora las relaciones con la tecnologías nos van alejando de las relaciones con los otros bichos. Ya no matamos animales, ya no cultivamos los campos. Y la inteligencia artificial es una capa de distancia más.
Pero, si nos distanciamos de las otras especies, ¿hacia dónde irá la evolución? ¿Se darán nuevas simbiogénesis entre los bichos y las inteligencias artificiales? ¿Cómo el déficit de relaciones va a impactar en la continuidad de la evolución? ¿Vamos a hacer una ecología de saberes que encamine y ponga límites?
- Poder
Tenemos que tener en cuenta algún tipo de teoría del poder, porque las inteligencias artificiales reproducen y amplifican los (anti)valores dominantes. La policía predictiva predice dónde va a haber hurtos menores pero no hay algoritmos para prevenir cuanto van a estafar los banqueros. Lo que pasa es que antes de la inteligencia artificial tampoco se investigaba a los banqueros. Los inspectores de hacienda solo persiguen a los pequeños.
Tenemos mucha información, pero ya gran mayoría no la podemos utilizar para nada. Lo que podemos hacer, relacionado con la información que tenemos, es mínimo. De hecho, el consumo es una de las pocas cosas que relaciona información con acción.
Así que con tanta información vivimos en el despilfarro del “no hacer”.
Millones de dólares empleados en generar algoritmos que, al final, llegan a las mismas conclusiones que ya había antes, sin inteligencia artificial.
- Sesgos
Los sesgos humanos tienen menos alcance. Cualquier dinámica física es más controlable que un algoritmo sesgado que esté disperso por todo el planeta. Pero hay sesgos estructurales.
Hay un problema con lo medible: el fracaso escolar, por ejemplo. Puedes preguntar cuántas denuncias de malos tratos ha habido en sus familia, cuántas ausencias en el cole… Pero es muy difícil medir cómo influyen los recortes presupuestarios, o la apertura de un centro comunitario, o la existencia de canchas de deporte, o que haya familias extendidas en los que los niños y niñas se sienten apoyados. Lo no estructurado y lo colectivo es muy difícil de medir.
El fracaso escolar es un fracaso social, habla de una sociedad que está fracasando,. Si lo entendemos como un problema individual ya lo entendemos mal y eso se proyecta y se multiplica con mecanismos que solo saben medir datos individuales. Pero es que antes de que llegaran los algoritmos ya estaba la idea de “fracaso escolar personal”. Y así con todo.
- Tableros
La información es lo que presenta la biosfera dentro de esa gran complejidad informativa hay un pequeño capitulo que es lo que procesa el cerebro humano.
Las matemáticas pueden servir para explicar la naturaleza, pero sin olvidar que lo que explicitamos no es el todo, son solo acercamientos.
La inteligencia artificial tiene un modelo de completitud que persigue la predictibilidad, pero solo funciona en sistemas acotados, cerrados, y la realidad siempre es un modelo abierto. Una sistema cerrado puede ser, por ejemplo, el juego del Go. Pero las analogías pueden ser peligrosas. La vida no es juego. Con las vidas no se juega. Los modelos cerrados no se desarrollan tanto para predecir como para prescribir.
- Agenciamientos
¿Podría haber contextos, maneras he hacernos con estas inteligencias, para mostrar injusticias, desigualdades ¿Tenemos juego? Parece que no mucho…
Las inteligencias artificiales están hechas para concentrar poder. Mucho tendría que cambiar para que se convirtieran en instrumentos para distribuir el poder.