Desde su lanzamiento, en noviembre de 2022, ChatGPT ha conectado con el gran público porque es eficiente y fácil de usar. Basta con hacerle preguntas o darle indicaciones en lenguaje natural, como se haría en una conversación normal.
El chatbot ofrece una respuesta razonable, casi sobre cualquier disciplina, a partir del conocimiento depositado en Internet. Resuelve casi cualquier problema y redacta la solución como si fuera una persona más o menos experta.
Aunque muchas peticiones las resuelve con razonable solvencia, algunas exigen más de lo que este sistema es capaz de hacer por ahora. Presenta limitaciones:
- Ofrece respuestas que, aunque elocuentes y hasta convincentes, son a veces incorrectas o absurdas.
- Puede imitar el estilo de un autor, pero hay aspectos para los que el modelo no está entrenado, conque el resultado tiende a ser una burda aproximación.
- Puede reproducir sesgos culturales, étnicos o de género que están presentes en los datos con los que se ha entrenado.
Por lo tanto, la inteligencia artificial vale para situaciones que admiten cierto margen de error. Pero no para cuestiones críticas, tales como un trabajo científico o una consulta médica, legal o financiera. Aparenta habilidad para el pensamiento racional, pero no razona ni dispone de conocimiento fiable sobre el mundo. No entiende, en un sentido humano, nada de lo que escribe.
Tras poner a prueba esta herramienta, mi compañero Javier Guallar y yo explicamos en The Conversation nuestras conclusiones y anticipamos qué rumbo tomará la inteligencia artificial en un futuro próximo.
Los modelos de lenguaje presentan limitaciones por ahora insalvables.