Créditos: Prensa Comunitaria
Tiempo de lectura: 5 minutos

Por Dante Liano
Una nueva rama de la Economía, denominada “economía narrativa”, estudia la posibilidad de que muchas decisiones, en ese campo, no correspondan ni a la racionalidad ni a la ciencia, sino a las emociones y, en otros casos, a la manera cómo se presentan los hechos. Dicho de otro modo, hay, en la actividad cotidiana que tiene ver con el dinero, las inversiones y las rentas, una serie de leyendas cuya magia influye tanto como los complicados cálculos matemáticos que se enseñan en la Universidad. Una de esas leyendas tiene que ver con el bitcoin. Se dice (y ya en esta expresión comienza el clima de fábula) que el inventor de la moneda electrónica fue un japonés, de apellido Fukuyama, quien escribió un artículo fundamental. La cuestión es que nadie sabe nada de Fukuyama y el mágico estudioso japonés se ha disuelto en la niebla. Nada mejor que esa invención para atribuirle, al bitcoin, poderes mágicos. Por ello, los estudiosos de economía se han puesto a estudiar la narrativa y han sacado de sus estantes libros clásicos de tal materia, como los análisis de Propp y Sklovsky, o las propuestas de Gerard Genette. Se han dado cuenta de que, cuando un empleado de banco le propone a un cliente invertir sus ganancias en la bolsa, necesariamente le tiene que relatar un cuento, no necesariamente verdadero, para empujarlo en su decisión. La historia de la economía está llena de esos relatos, algunos míticos, como los que se refieren al crack de la Bolsa de Wall Street en 1930, la ruina por excelencia y que opaca otros ruidosos cracks de ese siglo y del siguiente. Derivado de la bancarrota neoyorquina, una deliciosa historia nos explica la moda de los jeans rotos que todavía hoy se ven por las calles de los países opulentos. No todo el mundo se arruinó en la época de la depresión. Junto con los que se quedaron en la calle y hacían cola para poder recibir una comida al día, también los hubo que se enriquecieron con la especulación. Solo que, por pudor, no podían hacer ostentación de su riqueza. Se dice que muchas de las personas acomodadas de la época se rompieron deliberadamente los vestidos para no desentonar con la mayoría de gente pobre que circulaba por las calles.

En general, cuando tomamos una decisión, no siempre actúa la pura racionalidad. Hay un componente emotivo bastante pesado en nuestras elecciones personales. Daniel Kahnemann, ganador del Premio Nobel de Economía en 2022, ha elaborado una teoría de la toma de decisiones que publicó en un libro escrito con Amos Tversky, Thinking Fast and Slow (2011)Tal teoría explica por qué las personas no siempre toman decisiones racionales: tales decisiones están rodeadas por un contexto, por una emotividad y por hechos imprevistos. Si un amigo nos pregunta cuánto es 2+2, rápidamente respondemos que 4. La cosa se vuelve más lenta cuando el amigo nos pide calcular 17×24. En el primer caso, la respuesta es intuitiva y automática, no requiere una mayor elaboración. Se trata de una decisión instantánea y se basa en patrones y experiencias previas. A este sistema de decisiones veloces, Kahnemann lo ha bautizado como Sistema 1. El segundo caso necesita de una mayor lentitud, de un mayor análisis, de una cierta reflexividad. Enfrentamos un sistema complejo que requiere reflexión y lógica, probablemente haremos uso de papel y lápiz para hacer el cálculo. Kahnemann llama Sistema 2 a este sistema lento y meditativo. Si uno comprara un seguro para su automóvil, el Sistema 1 lo empujaría a contratarlo de inmediato si ha estado escuchando conversaciones sobre accidentes o si ha estado a punto de causar un incidente. En cambio, el Sistema 2 consiste en evaluar costos y beneficios, las probabilidades de uso, un pensamiento calmado y calculador. Un buen vendedor de seguros, delante de un probable cliente, comenzará relatándole una serie de accidentes cubiertos exitosamente por su compañía, de modo que, por impulso, el cliente contratará sus servicios. Es decir, el asegurador tratará de poner en acción el Sistema 1.

Ello da lugar a la “Teoría de las perspectivas”: la gente tiende a valorar de manera diferente las pérdidas y las ganancias, y ello empuja a tomar decisiones poco lógicas. Cuando hablamos de ganancias, tratamos de evitar el riesgo. Cuando hablamos de pérdidas, nos exponemos al riesgo. De este modo, se pueden imaginar dos escenarios. En el primero, alguien nos ofrece una ganancia de 500 euros. En el segundo, podemos apostar en un juego donde tenemos el 50% de posibilidad de ganar mil euros y el 50% de no ganar nada. No obstante que ambos escenarios tienen el mismo valor esperado (500 euros) tendemos a escoger el primer escenario, pues preferimos la seguridad de una ganancia inmediata a la posibilidad de un resultado incierto. Ello da lugar al “efecto de anclaje”: cuando nos dejamos influenciar por el primer valor que se nos presenta, el cual actúa como un ancla. A pesar de las informaciones sucesivas a tal “ancla”, nos aferramos al primer valor. Esto se ve claramente cuando queremos comprar un smartphone nuevo. Si vemos, en la tienda de aparatos electrónicos, un modelo de 1200 euros, nos parece caro y seguimos buscando. Encontramos uno prácticamente igual, a 900 euros. A este punto, consideramos el segundo una ganga, respecto del primero, aunque, objetivamente, 900 euros sea un precio muy alto. No nos damos cuenta, porque los 1200 iniciales se han anclado en nuestra mente.

En todo caso, la característica principal de la teoría de Kahnemann estriba en que las decisiones han sido tomadas, hasta ahora, por un ser humano. Aun cuando se usa el Sistema 2, la recopilación de informaciones para elaborar un análisis lógico es realizada por el sujeto interesado. En un artículo publicado por il Sole 24 Ore, periódico italiano especializado en economía, Massimo Chirlatti y Giuseppe Riva proponen una nueva teoría sobre la toma de decisiones. El artículo se basa en otro, publicado en la revista Nature, cuyo título es: “The Case for Human. AI Interaction as System 0 Thinking”. Su hipótesis es que «la interacción entre seres humanos y los sistemas avanzados de inteligencia artificial (IA) está creando un nuevo sistema cognitivo, que llamamos “Sistema 0”». La cuestión es la siguiente: la IA posee la capacidad de analizar y elaborar grandes cantidades de datos en pocos segundos, con mucha mayor capacidad y velocidad que la mente humana. En la actualidad, el recurso a la IA es muy frecuente en todos los aspectos de la vida humana. Piénsese solamente en el uso de aplicaciones para móviles que sirven como asistentes en la conducción de vehículos, tales como Google Maps y Waze. Ambas aplicaciones, a través de un proceso algorítmico, resuelven enormes cantidades de información sobre el tráfico, y, al instante, nos informan sobre cuál es el camino que debemos utilizar para llegar más rápido a nuestro destino. Naturalmente, la decisión final corresponde al conductor de un automóvil, pero la fuente de esa decisión ya no es su mente, ni su juicio, ni sus emociones, sino la aplicación GPS. A ese sistema, los investigadores italianos lo llaman el Sistema 0. Afortunadamente, dicho sistema no es capaz de tomar decisiones, que todavía están en manos de los seres humanos. ¿Cuál es la novedad? La novedad está en que, por primera vez en la historia del conocimiento, las decisiones se toman con el auxilio de un sistema ajeno al sujeto racional. El riesgo, dicen los autores del artículo, consistiría en aceptar pasivamente las sugerencias de la IA, sin filtrarlas, provocando, con ello “una erosión de nuestras habilidades de razonamiento personal”. Se han dado caso de personas que terminan en medio de un río, al seguir al pie de la letra indicaciones equivocadas de la aplicación GPS.

Según los autores del artículo, el riesgo que corremos consiste en ir delegando en la IA funciones que, antes, eran exclusivamente humanas. Con ello, está en peligro también la percepción que tenemos de nosotros mismos, porque, en un cierto sentido, dejamos de ser independientes y delegamos nuestra libertad en una máquina. Una función exclusivamente humana ha sido la introspección, es decir, la búsqueda, en nuestro cerebro, de soluciones a las cuestiones de la vida. Si, en la toma de decisiones, interviene un elemento que no es humano, cambiamos en modo sensible una de las actividades fundamentales de la existencia. Quizá la parte más interesante del ensayo está en las recomendaciones. No se trata, por supuesto, de renunciar a los avances de la ciencia y la tecnología, sino de controlarlos. Puesto que, hasta ahora, la planificación  de la IA está hecha por humanos, corresponde a tales programadores tener especial cuidado con la confiabilidad de los sistemas, con la transparencia al elaborar los algoritmos que los gobiernan y con la elaboración de directivas que gobiernen su uso responsable y ético. Como sucede con frecuencia, el instrumento en sí no es malo; puede ser malo, en cambio, el modo en que lo usamos.

COMPARTE