Neurociencia y realidad en tiempos de inteligencia artificial
El cerebro humano no funciona como una computadora para verificar datos de manera lógica o sistemática.
PUBLICIDAD
Tenemos acceso a la información al alcance de un clic. Ahora es fácil y rápido saber lo que pasa en el mundo, pero también es bien fácil ser engañado. La inteligencia artificial, o IA se está utilizando para crear imágenes y vídeos tan realistas que muchas personas no logran distinguir si son verdaderos o falsos. Y aunque parezca que nuestro cerebro puede detectar esas mentiras, la ciencia demuestra que no siempre es así.
¿Qué nos dice la neurociencia? El cerebro humano no funciona como una computadora para verificar datos de manera lógica o sistemática. La función del cerebro es garantizar la supervivencia de los seres vivos en la naturaleza o en entornos sociales complejos. Nuestro cerebro es un poco más complejo comparado con otros animales.
Durante miles y miles de años, nuestros ancestros dependieron de la experiencia directa y de la observación del ambiente para comprender la realidad. Evolucionamos usando nuestra inteligencia emocional y la confianza en la palabra de los otros miembros del grupo para aceptar de manera rápida la información social. Este proceso ofreció más ventajas para sobrevivir y, por lo tanto, nuestro cerebro atiende y procesa las señales más familiares, de pertinencia y que tengan elementos emocionales antes de realizar un análisis detallado y objetivo de la información.
No obstante, en esta era de múltiples estímulos digitales, de señales manipuladas y de desinformación, esa misma adaptación evolutiva puede jugarnos en contra fácilmente.
Según la neurociencia cognitiva, cuando vemos o escuchamos una noticia, el cerebro no verifica si esos datos son ciertos o no. Al contrario, lo procesamos como si fuera real por defecto. Primero creemos y luego evaluamos si es verdad, siempre y cuando exista suficiente atención o motivación para hacerlo. Lamentablemente, en un entorno donde recibimos cientos de mensajes y vemos decenas de memes al día, el cerebro no tiene tiempo ni energía para verificar cada uno.
Esto se vuelve más complicado con los contenidos creados por inteligencia artificial. Se pueden generar fotos de personas que no existen, audios que imitan las voces de figuras públicas y vídeos de eventos que nunca ocurrieron. De hecho, es bien difícil para nuestro sistema nervioso rechazar información que apele a nuestras emociones, ya sea mediante miedo, indignación, deseo o esperanza.
El miedo tiene un papel protagonista porque el cerebro evolucionó para reaccionar rápidamente al peligro. Está interconectado de esa manera. Si recibimos una noticia falsa informando que un grupo quiere utilizar una vacuna para causarle daño a la humanidad, nuestras respuestas emocionales se activan antes que el pensamiento crítico. El miedo “apaga” las áreas de la corteza cerebral responsables de analizar críticamente la toma de decisiones mientras activa otras regiones encargadas de las respuestas instintivas, rápidas y emocionales. Anuncian un posible huracán dentro de una semana y los supermercados se llenan en dos horas, ¿no es verdad?
Otro factor que influye es el sesgo de confirmación; solemos aceptar la información que refuerza lo que ya pensamos o creemos. Si alguien piensa que el gobierno siempre miente, es probable que también crea en teorías conspiratorias porque encaja en su visión de mundo. Este sesgo es natural, pero en las redes sociales se intensifica porque los algoritmos siguen mostrándonos más contenido similar a lo que vemos y compartimos cada día.
Las figuras de autoridad también tienen un gran peso en nuestro análisis de la realidad. Cuando una persona famosa, un político o un líder religioso comparte información equivocada o falsa, las personas o seguidores lo creen sin cuestionarlo. El cerebro confía en quienes percibe como guías o expertos dada nuestra evolución biosocial. Esto fue útil para nosotros en el pasado, pero ahora puede ser peligroso porque se puede replicar información errónea y manipular a millones de personas con inteligencia artificial a través del celular.
Finalmente, el desconocimiento y falta de educación digital es otro obstáculo. Muchos usuarios de internet no conocen las herramientas básicas para verificar la información. No saben buscar la fuente original, contrastar con otros medios o identificar señales de que un contenido ha sido generado por inteligencia artificial. El avance tecnológico ha sido más rápido que la educación sobre cómo manejarlo.
¿Qué podemos hacer en esta situación? La solución no está solamente en las plataformas tecnológicas, filtros o en el gobierno. Está en cada uno de nosotros. Necesitamos aprender a reconocer cómo nuestras ideologías, creencias, miedos y emociones pueden nublar nuestro juicio y toma de decisiones. Necesitamos detenernos, respirar, pensar y analizar antes de aceptar y compartir información en las redes sociales. Quizás ya debemos pensar en la alfabetización digital y emocional como parte esencial de la educación en nuestra vida cotidiana.
El cerebro humano es bien poderoso, pero también vulnerable. En un mundo donde la verdad y la mentira pueden tener casi el mismo rostro, necesitamos más que nunca herramientas y esfuerzo para distinguirlas.
Nuestro cerebro no evolucionó para almacenar y procesar toda la información posible, sino la mínima necesaria para sobrevivir. Porque al final, no se trata de proteger y acumular datos, sino de proteger la capacidad que tenemos como individuos y como sociedad de tomar decisiones lógicas, reales y humanas basadas en nuestra “inteligencia colectiva”, la que es ancestral, genética y neurobiológica, no artificial.