El impacto de Nexus, el nuevo libro del historiador israelí Yuval Harari, el cual incluye un pronóstico apocalíptico respecto a las posibles consecuencias del uso de la Inteligencia artificial (IA) sobre nuestras vidas, ha contribuido a reflotar, en los últimos días, un debate que al público en general le resulta lejano cuando no directamente incomprensible.
Mientras tanto, las compañías que se disputan el mercado de la IA avanzan enloquecidamente ofreciendo, en el mejor de los casos, la dádiva de comités de ética internos como estrategia de marketing de cara a la sociedad, y los gobiernos y las instituciones supranacionales nombran a sus propios expertos con rostros adustos, apasionados por una protocolización de la vida que habla más de sus ideologías que de su rigor técnico.
El aspecto más polémico del libro de Harari es aquel que indica que la potencial autonomía de la IA supone una amenaza para la democracia y para la supervivencia humana.
En el fondo de este tipo de afirmaciones está ese temor que es un clásico de mitos, leyendas y cuentos acerca de la posibilidad de que una creación humana devenga contra sus propios creadores. Frankestein, el Gólem de Praga y una lista infinita de casos sirven de ejemplo para graficar un terror humano, demasiado humano, que recae sobre los Hombres cuando "juegan a ser Dios".
Sin embargo, lo que permanecía en el terreno de la fantasía, parece acercarse cada vez más al terreno de lo posible. De hecho, para Harari, justamente, la gran novedad de esta tecnología es su capacidad para autonomizarse. Este es su diferencial y lo que la hace tan peligrosa porque hasta ahora, incluso el uso de energía atómica para crear una bomba y lanzarla, dependía, en última instancia, de una decisión humana. Pero el gran interrogante es qué sucedería si una inteligencia artificial, es decir, no humana, pudiera tomar esa decisión por sí sola.
Ahora bien, si no queremos ir tan lejos como Harari, aun a riesgo de vender menos libros, claro, podríamos posarnos en las preguntas que la IA plantea para la democracia. Allí no hace falta profetizar tanto porque los resultados ya son palpables. Me refiero al modo en que los algoritmos promueven visiones parciales, burbujas que hacen que acabemos rodeados de aquello que confirma nuestros prejuicios mientras suponemos estar ante una muestra representativa de la complejidad de la realidad.
Aquí mencionamos el libro de Harari pero donde mejor se explica esto es en el libro Código roto de Jeff Horwitz, el periodista que publicó el escándalo conocido como "Los papeles de Facebook". Se trata de una investigación esclarecedora porque allí se expone el modo en que la empresa de Mark Zuckerberg diseñó algoritmos con el fin de lograr que los usuarios pasen más tiempo navegando en la plataforma. El punto es que una inteligencia artificial que sólo sabe cumplir objetivos, observó que los usuarios se sienten más atraídos por publicaciones, amistades o grupos cuyos posteos fomentan la polémica, las conspiraciones, las fake news y el odio.
Lo interesante del libro de Horwitz y la investigación que allí se revela como producto de una filtración, es que Facebook lo sabía y que todas las medidas que tomaron se realizaron siempre y cuando no afectaran al negocio. Pero sobre todo, algo quizás más preocupante, es que los ingenieros aceptaron que los algoritmos tomaban decisiones que eran completamente imprevisibles. Es decir, los algoritmos habían devenido incontrolables.
Sirviéndose de ejemplos como este, Harari plantea un escenario donde habría algo así como dos grandes corrientes dominando la discusión pública en torno a qué hacer. Se trata de un planteo simplista y falaz cuya única intención es posarse en un pretendido lugar de neutralidad que no es tal.
Pero lo cierto es que él distingue entre una mirada que sería propia de Silicon Valley y que él denomina "visión ingenua" que considera que, a más información, más cerca se estará de la Verdad y de la democratización de la palabra; y una mirada populista, la cual consideraría que la verdad es relativa y que las instituciones occidentales son solo una mascarada de legitimación del poder de turno.
La falta de precisión de Harari en este aspecto es espeluznante pero el punto es que él construye estos hombres de paja para justificar su posición, la misma que sostienen los grandes organismos supranacionales, esto es, fortalecer instituciones del statu quo y generar acuerdos globales en nombre de una buena gobernanza, llámese Agenda 2030, Pacto del futuro o el nombre que la burocracia de turno proponga. Es decir: está el cuco de los empresarios libertarios de Silicon Valley, prepotentes opositores a cualquier intervención estatal, y luego está el cuco de los Bolsonaro y los Trump que creen que no hay Verdad y entonces se benefician de los bulos porque la gente que los vota a ellos es idiota y manipulable. En el medio está Harari y toda la vieja burocracia que necesita de un nuevo apocalipsis siempre a punto de llegar para poder legitimar su existencia.
Ahora bien, lo que Harari no menciona es que esas instituciones cuya legitimidad está puesta en cuestión, no sólo por una serie de forajidos conspiranoicos sino por su propia incapacidad, arbitrariedad y sesgo, al igual que los ingenieros de las compañías, tampoco saben bien qué hacer con la IA. Es decir, los encargados de controlar a los diseñadores que impulsan las fantasías tecnocráticas de manual con argumentos de un iluminismo ramplón y adolescente que, por favorecer su negocio, han sido funcionales a la proliferación de conspiraciones, falsedades y delirios, no tienen para ofrecer más respuestas que una maraña de normas de control siempre obsoletas y el sostenimiento de una casta de burócratas solventados con dineros públicos.
Son los mismos que ensalzaban las redes cuando años atrás favorecían su agenda y ahora las denuncian porque, más allá de que efectivamente son espacio para todo tipo de material cloacal, son también el único canal desde el cual se pueden alzar voces contra la hegemonía cultural progresista.
Sin saber verdaderamente qué hacer, demostrando su incapacidad una vez más, el accionar de esta burocracia obedece más a razones ideológicas y a un temor que se evidencia en la creación de diversos dispositivos que garanticen nuevas y sofisticadas formas de control.
Si el fanatismo tecnocrático del espíritu emprendedorista de Silicon Valley lleva al mismo descontrol desregulador que un supuesto populismo relativista para el cual los bulos y la Verdad son solo distintas formas igualmente válidas de hacerse con el poder, las actuales instituciones que proponen regulaciones carecen de legitimidad por su propia incapacidad y por los demostrados sesgos de sus intervenciones pretéritas.
Digamos, entonces que, más allá de los peligros de una tecnología capaz de autonomizarse, un problema más urgente es esta crisis de legitimidad de las instituciones que pretenden limitar dicha tecnología.
Por ello, es necesario concluir afirmando que nuevas instituciones con visiones más equilibradas y mayor eficiencia técnica no serán suficiente para detener todos los eventuales peligros de la IA, pero serán, sin duda, una condición necesaria.
No hay comentarios:
Publicar un comentario