Desinteligencia opresiva

Por Facundo Esteban

Estamos obligados a interactuar con robots: una solicitud de turno para un trámite o una simple consulta telefónica pueden enfrentarnos a un bot, que ofrecerá una lista de respuestas preprogramadas. Además de la evidente incomodidad y pérdida de tiempo que esto supone, se trata apenas de la punta del iceberg de la aplicación de computadoras con sistemas de respuesta y toma de decisiones.

Desde hace varios años, Estados y grandes empresas utilizan métodos automatizados para procesar grandes volúmenes de información e intentar determinar futuras tendencias o predecir comportamientos de variables en sistemas complejos. Entre los ejemplos, podemos encontrar empresas corredoras de bolsa, predictores meteorológicos, reconocimiento facial, monitoreo en redes sociales, espionaje de telecomunicaciones, pilotaje de aviones, etc.

Todos estos casos de aplicación han ocasionado problemas con graves consecuencias: la bancarrota de empresas debido a operaciones de bolsa liquidadas en fracciones de segundo, la manipulación de información difundida a través de redes sociales, el espionaje sobre activistas y opositores, la discriminación de inmigrantes en ayudas sociales y la muerte de cientos de personas en accidentes de aviación (1). Sin embargo, estos sistemas no son cuestionados de raíz, en el mejor de los casos solo se han sugerido “correcciones del código”.

En forma más reciente, los modelos se han adaptado y abaratado lo suficiente como para que sean aplicables en muchas otras situaciones. En particular, aquellos que pueden elaborar sus respuestas en forma más comprensible para el usuario pretenden reemplazar a los seres humanos en el mercado laboral: ya es habitual, por ejemplo, en la atención de call-centers o en la escritura de guiones. Es así que muchas personas están siendo reemplazadas por algoritmos que hacen (peor) su tarea con el único objetivo de reducir costos.

Mientras tanto, los gurúes de la tecnología aseguran que este es solo el inicio y prometen nuevas aplicaciones para el público masivo en el corto plazo, tales como el ya estrenado Chat GPT.

El uso de estas herramientas, lejos de significar un avance, implica no solo el embrutecimiento de nuestro sistema cognitivo y sensorial, sino también una amenaza al desarrollo de las facultades humanas. El término “inteligencia artificial” no es inocente, ya que insinúa que una característica humana compleja se reduce a una acepción analítica, supuesta “razón pura”, a su vez simplificada y cercenada a través de algoritmos programados en lenguaje de computación. ¿Podemos acaso separar sensaciones, experiencia, empatía, valores, creatividad, imaginación, memoria, emociones o sentimientos cuando pensamos? ¿Queremos que las máquinas realicen funciones cognitivas por nosotros, aun a costa de atrofiar su desarrollo? ¿Es buena idea que un sistema informático tome decisiones que pueden tener consecuencias insospechadas sobre nuestra vida y la de los demás?

Por otro lado, estos sistemas con pretensiones de raciocinio han sido programados, orientados y financiados por los grandes padrinos de Silicon Valley, que se aseguran tanto sus beneficios económicos como el enorme poder de influenciar a millones de personas sin mancharse las manos, utilizando el oscurantismo del algoritmo.

Podemos enfrentar los intentos de degradación de nuestra vida a través de los dispositivos electrónicos. Elijamos convertir una búsqueda en internet en la lectura de un libro o en una consulta a una persona que nos pueda ayudar a desarrollar nuestras propias ideas. Transformemos un mensaje de texto en una llamada o, mejor aún, en un encuentro. Apreciemos la inmensa complejidad de una conversación cara a cara. Seamos protagonistas de una realidad humana y no virtual.

1)   https://www.elmundo.es/cronica/ 2019/03/19/5c8c083221efa07f0e- 8b45b5.html

Publicado en Comuna Socialista 84