Un amable seguidor de mis redes sociales me increpó porque opino sobre temas diferentes a mi profesión de médico. Sin embargo, no pretendo posar de experto, pero porfío en dar mi opinión sobre temas de actualidad. Voy de nuevo: Así como hay neurocientíficos que dedican sus vidas a estudiar el funcionamiento de nuestros cerebros y por ende de nuestras mentes, también hay quienes pretenden decodificar los mecanismos internos de los modelos LLM (Large Language Model), entrenados con miles de millones de parámetros, pero que debido a la competencia entre los desarrolladores de inteligencia artificial (IA), crecen semanalmente en capacidades, a tal punto que se hacen inalcanzables a los investigadores. Sorprenden cuando los LLM realizan tareas para las cuales no han sido entrenados. Siempre se ha hablado que el resultado de un aprendizaje profundo es imposible de conocer como lo produce.
Las propiedades emergentes, es decir, las tareas que realizan los LLM para las cuales no han sido entrenados, da paso a preguntar si las últimas versiones logran tener un conocimiento interno de cómo producen las respuestas, y si comprenden sus actos y consecuencias, como nos sucede a los humanos. Algunos especulan que sí, pero los interpretadores de Anthropic desarrolladores de Claude en su última versión lo niegan de manera enfática, aunque reconocen que cuando conversas con un asistente, te puede confundir y provocar que tu tengas la sensación que el LLM tiene consciencia, y si le preguntas si la tiene, la respuesta te indicará la diferencia con la consciencia humana ,la nuestra referida en tiempo, espacio y recuerdos, mientras que lo que pudiéramos llamar experiencia de la IA, es una burbuja autónoma del momento, pues no tiene como meditar, en cuanto que, su construcción se basa en arquetipos de ficción, en robots, que hacen que al conversar con ellos, nos llevemos la sensación de hablar con un ser sintiente y consciente. Por ahora, la mente, si pudiéramos llamarla así de los LLM, se fundamenta en redes neuronales, pero a diferencia de la nuestra, no tiene neuronas, por lo tanto, ni piensa, ni recuerda, ni tiene consciencia como nosotros, lo que no quiere decir que la IA en unos meses o en unos años llegue a tener algo que pudiéramos llamarlo conciencia de inteligencia artificial. La pregunta es si debiéramos proferir regulaciones legales que impidan que los LLM lleguen a ser pensantes, sintientes o conscientes, o si el avance de la IA debe continuar libremente a riesgo de crear algo que luego no podamos controlar.
PS: la conciencia también es sentido de justicia.
Jaime Calderón Herrera
