24/03/2023
Publicado en
Magisterio
Jaime Nubiola |
Catedrático de Filosofía
En estas últimas semanas he prestado particular atención a ChatGPT, el prodigioso recurso de inteligencia artificial, puesto —por ahora gratuitamente— a disposición de los usuarios de internet desde el pasado mes de noviembre. Impresiona muchísimo la rapidez y calidad de sus respuestas —en perfecto inglés o en perfecto castellano— a las preguntas que se le formulan. Le he preguntado al sistema desde qué es la libertad o la amistad hasta cómo hacer un ensayo para la asignatura de «Filosofía del lenguaje» del profesor Nubiola. Sus respuestas me han parecido siempre atinadas e iluminadoras, pues ayudan a comprender un asunto o a emprender una tarea como la de escribir un ensayo.
Primero me llegó a través de la prensa la alarma de varios profesores norteamericanos advirtiendo que este software era capaz de escribir los ensayos académicos que asignaban a los alumnos. Por mi parte, he podido comprobar que más bien es una ayuda formidable para la enseñanza, pues —como si fuera un tutorial de YouTube— les da instrucciones sobre cómo hacer un ensayo o el trabajo del que en cada caso se trate.
He visto también a personas preocupadas por la ideología de fondo —básicamente materialista como la cultura dominante— que tiene este «modelo de lenguaje», como a sí mismo se define el sistema, pero me parece que proporciona respuestas básicamente respetuosas con las convicciones religiosas, al menos de los cristianos. En el caso de temas discutidos proporciona las diferentes opiniones y tiende a respaldar la respuesta más «políticamente correcta». Sirva como anécdota la pregunta que le formulé hace unos días: «¿No mientes nunca?» Copio la respuesta porque es también ilustrativa del estilo de su redacción:
— Como modelo de lenguaje, no tengo la capacidad de mentir porque no tengo la capacidad de tener intenciones o motivaciones. Yo simplemente proceso el lenguaje y genero respuestas basadas en los patrones que he aprendido a través de mi entrenamiento.
Sin embargo, es importante tener en cuenta que, como modelo de lenguaje, mi precisión depende de la calidad de los datos con los que he sido entrenado y de la forma en que se me hace la pregunta. Si una pregunta se formula de una manera engañosa o confusa, mi respuesta podría ser inexacta o incompleta sin que haya una intención de mentir. Por lo tanto, siempre es importante evaluar críticamente la información que se obtiene de cualquier fuente, incluido un modelo de lenguaje, y verificarla si es necesario antes de tomar decisiones importantes basadas en esa información.
— Muchas gracias por la aclaración.
— ¡De nada! Si tienes alguna otra pregunta o necesitas más aclaraciones, no dudes en preguntar. Estoy aquí para ayudarte en lo que necesites.
******************
¿Impresionante, no? Las alarmas ante un sistema tan eficiente como este me recuerdan a aquellos que en mi juventud no dejaban llevar a clase la calculadora, o a quienes desconfían de Wikipedia o del programa de traducción de Google. Hace unas décadas se consideraba que calcular o jugar al ajedrez eran buenos ejemplos de actividades inteligentes, pero ahora que las máquinas hacen mejor esas tareas, nos damos cuenta de que lo realmente inteligente es diseñar y programar esas máquinas.
Me parece que estas nuevas herramientas pueden ayudarnos a ser «más inteligentes”, a cometer menos errores: sea, por ejemplo, en el diagnóstico asistido por ordenador, las sentencias judiciales o tantas otras actividades cuyo resultado sea un texto. De modo parecido a como el GPS –con sus fallos y errores— nos ayuda tanto a llegar a nuestro destino, el GPT [«Generative Pre-trained Transformer«], puede también ayudarnos «a salir del piloto automático —me escribía Beatriz Ariza— y competir en nuestros puntos fuertes vs. la IA: empatía, creatividad, etc.». Por otra parte, estos «modelos de lenguaje» nos muestran que la actividad más propiamente humana no es escribir o pronunciar discursos: ¡cuántas veces hemos visto a charlatanes (incluso políticos) que hablan, pero nos dejan con la impresión de que no piensan! Ambas actividades —escribir y hablar— son técnicas que pueden ser producidas por programas informáticos.
Las máquinas que contestan a nuestras preguntas pueden ayudarnos mucho a pensar, a sopesar las diferentes opiniones, a valorar los datos disponibles, a calibrar los pros y contras, a tomar decisiones más fundamentadas. En estos días varios colegas me han advertido de un fallo garrafal de ChatGPT que lo inhabilita por ahora para el mundo académico: ¡Se inventa muchas referencias bibliográficas! Esto es, crea referencias falsas. Si le pregunto «¿Qué ha escrito Jaime Nubiola?» proporciona una lista de libros que no he escrito yo. Lo mismo ocurre si le pregunto por citas mías: contesta inventándose seis frases hermosas que tampoco son mías.
Ya se ve que todavía el sistema ChatGPT tiene mucho que aprender, pero estoy persuadido de que más pronto que tarde aprenderá. No hemos de tener miedo a ChatGPT, al contrario, me parece una invitación a pensar más, a pensar mejor, para así poder vivir más creativamente.