viernes, 30 de junio de 2023

Inteligencia artificial: una sociedad educada por una inteligencia sin salud mental

La inteligencia artificial (IA) es una "máquina" que imita la cognición/inteligencia humana, gracias a la información que recopila.

Es un "internet" que nos evita pensar palabras clave o el modo de escribir para acertar en las búsquedas. Le hablamos como a un humano. 

Parece que nos comprende, pero no tiene emociones ni es capaz de emitir juicios (no considera los "valores" de donde surgen las normas que rigen/ordenan la sociedad).

¿Qué tan "segura" es la respuesta si no está atravesada por una ética que regule las interpretaciones? ¿Es objetiva? 

Toma información de contenidos plenos de significados socioculturales (emitidos por humanos). La "IA" de 1940 no respondería igual que la actual. Es un cúmulo de juicios mayoritarios. Recibimos respuestas basadas en creencias/opiniones y convenciones sociales epocales. 

Comparándola con la lectura psicoanalítica de la mente (que no la considera una acumulación de "objetividades" sino una "cadena" de significantes con significados subjetivos infinitos), la IA replicaría una estructura mental "psicótica". 

Éstas funcionan por acumulación de significados tomados del afuera, instalando una condición que dificulta la resolución de situaciones complejas desde la subjetividad, apelando a la moral epocal en vez de a una ética universal. 

El no contar con un "ordenador ético" habilitador del discernimiento (virtud de percibir y declarar la diferencia entre situaciones iguales contemplando la especificidad) y emisión de juicio (síntesis subjetiva de la realidad que permite llegar a conclusiones por relación, identificación, comparación y "valoración" de ideas/conocimientos), la empatía está fuera de juego.

Paradójicamente, la IA me informa que ésta sirve no solo para vincularse sino para fomentar precisamente lo que ella no puede darnos:

- Comunicación efectiva

- Resolución de conflictos constructivamente

- Diversidad de posturas 

Volviendo a la psicología, las descompensaciones surgen cuando algo impacta y requiere resolver sin referencias previas. En emergencias, hablamos de "clínica de la no-respuesta" (intervenimos cuando alguien carece de respuestas, no puede construirlas, y siente una catástrofe interna).

La IA, se "descompensa" cuando le preguntamos sobre algo que requiere barajar valores.  Si insistimos, repite la misma frase hasta que el sistema "se rompe" o responde sin coherencia. El comportamiento termina siendo una réplica de lo que sucede en emergencias psiquiátricas.

¿Qué pasará en una sociedad que será "informada" mediante una inteligencia sin "salud mental" y la ética/emociones queden fuera de las soluciones? Seremos "educados" por una "mamá" sin empatía ni valores. 

¿Cuál es la ética de construir algo que brinda información sin ética? Le preguntamos a la IA y dijo: "Construir una máquina que brinde información sin ética puede tener implicaciones negativas en términos de precisión, sesgo, privacidad, transparencia y comprensión humana". 

¡Parece que pensamos igual! Pero no se siente lo mismo ¿No? Esa es la diferencia entre una inteligencia real y una simulada. 

No hay comentarios.:

Publicar un comentario

Los comentarios con contenido inapropiado no serán publicados. Si lo que Usted quiere es realizar una consulta, le pedimos por favor lo haga a través del link de Contacto que aparece en este blog. Muchas gracias