8. Antropomorfización

Algo muy parecido dice Enrique Dedans. “Plantear que un algoritmo conversacional puede, de alguna manera, ‘adquirir consciencia’, como si la consciencia fuese algo que te encuentras un día mientras conversas o que puede adquirirse ‘por accidente’, como en Terminator, es profundamente absurdo, pero mucho más si además te dedicas, presuntamente, a trabajar en esos temas. Un algoritmo conversacional se alimenta precisamente de conversaciones convenientemente etiquetadas, y puede ser entrenado para conversar sobre cualquier tema, desde filosofía hasta el sentido de la vida, pasando por situaciones de soporte de clientes o, hasta si queremos, para que empiece coqueteando y termine dando gemidos en una línea erótica. A partir de ahí, obsesionarse con que el chatbot en cuestión ‘ha desarrollado consciencia’, que ‘teme ser apagado’, que ‘se siente solo’ o que ‘se preocupa por la humanidad’ es simplemente una estupidez, una antropomorfización de una tecnología que ni es consciente, ni tiene trazas de serlo en ningún momento cercano. Es como pensar que por el hecho de que un dispositivo hable, es que tiene a alguien ahí dentro.
El problema de que un supuesto experto, alguien con credencial de ingeniero de Google, acuda a los medios a decir que un chatbot ha adquirido consciencia, es que hablamos de una sociedad que ha visto cómo sus expectativas sobre el tema se alteraban de manera muy rápida (…) Que muchas personas crean, por culpa de las visiones místicas de un ingeniero de Google, que un sistema de machine learning es capaz de ser consciente de sí mismo cuando en la práctica solo está ejecutando un algoritmo, implica que buena parte de la sociedad empiece a temer a la tecnología o a creer que la ciencia-ficción y las máquinas conscientes están aquí ya. Y eso es malo, porque pasan a recelar de muchas tecnologías que pueden ser muy interesantes.”
“Tal vez, si no fuéramos tan solipsistas, habríamos llamado a la inteligencia artificial y a las redes neuronales de otra manera”, destaca Molly Roberts. “Si hubiéramos usado la jerga de la ingeniería, como ‘optimización predictiva’, ni siquiera estaríamos discutiendo si esta tecnología acabará pensando, o ruborizándose, o llorando. Pero elegimos las palabras que elegimos, unas que describen nuestras propias mentes y nuestras propias capacidades”.