En 1950, el matemático y lógico inglés Alan Turing se preguntó si llegaríamos a fabricar máquinas inteligentes. Lo serían, concluyó, si las respuestas de esas máquinas fueran indistinguibles de las de un ser humano. A la luz de este criterio, el chatGPT hace inteligentes a los ordenadores. Pero este criterio no me sirve. Solo se fija en la fachada. Lo que hace inteligente al ser humano es la capacidad de pensar.
Las máquinas con inteligencia artificial «procesan». Los seres humanos «piensan». Esas máquinas son capaces de procesar, a una velocidad de vértigo, la información previamente introducida. Ignora, sin embargo, qué está haciendo y es incapaz de aplicarlo a situaciones para los que no ha sido entrenada. Para contar las personas que acuden a una manifestación, alguien ha debido entrenar a esa máquina introduciendo millones de caras humanas. Pero no le preguntes qué es una persona. Para que su respuesta sea correcta alguien habría de procesar todo lo que se ha escrito desde Aristóteles. La máquina resumirá la información en un párrafo… pero seguirá sin saber qué es una persona y si tú mereces ese título. Contrástelo con el razonamiento de un niño de tres años. Sin necesidad de introducir en su cerebro fotos y algoritmos, ese niño distingue a su padre entre miles de hombres y a un gato de peluche de un gato de verdad.
Lo que sí puede hacer la IA es potenciar nuestras capacidades intelectuales. Nos beneficiaremos de la IA cuando le preguntamos solo aquello para lo que ha sido informada y preparada. Y cuando sepamos analizar críticamente los resultados que lanza a nuestras preguntas Esta condición no puede darse por garantizada. Nos obliga a estudiar y pensar mucho para discriminar los resultados y detectar los posibles sesgos que resultan de la información introducida.
Me atrevería a concluir que la peor amenaza para la humanidad del siglo XXI es que unas máquinas aparentemente inteligentes, liberen al ser humano de su capacidad de pensar y decidir libre y responsablemente.