#118 Estas mezclando varias cosas. Tu piensa en el resultado. En este caso le estas pidiendo a un modelo de lenguaje por una opinion. Y eso es muy complejo.
La respuesta en si de ChatGPT ya es un resultado del modelo, la interpretacion de textos de input que le han dado ya es otro resultado, el leer tu input e interpretarlo correctamente es otro resultado y asi habra varias capas. No se como funciona ChatGPT porque no me lo he mirado pero generar una "opinion", seguro que no esta entrenado para generar opiniones.
Porque para empezar es uno de los problemas mas dificiles de resolver, es mucho mas facil REFUTAR una opinion. Tu podrias tener un ChatGPT entrenado para REFUTAR opiniones facilmente a partir del conocimiento que el aprende. Y entonces te explicaria porque algo esta bien o mal citandote fuentes. Y esto indirectamente, en base a aprender a interactuar con usuarios como un chat de ayuda, ya lo hace.
Y en el roadmap esta el tener plugins especializados de ChatGPT como el wolframalpha. Con ello ChatGPT accedera a todo el conocimiento de la herramienta y de esta manera si tu le pasas una formula matematica, te refutara o te correjira porque esta mal. Y tambien te ayudara a resolver lo que quieras. Y el generar una "nueva teoria" podria ser capaz, aunque es mas dificil. En esto aun se experimenta.
Lo que si te puede hacer el ChatGPT es que si le enseñas matematicas y le pides que resuelva un sistema de ecuaciones, lo haga de la manera distinta a la que lo haria un humano, porque ha encontrado maneras mas eficientes. Y eso ya lo hacen y es "inventar". Igual que se "inventa" imagenes a partir de cosas que ha aprendido.
El tema de refutacion, ya hace años se hacia con logica sobre hilos de twitter para demostrar automaticamente quien tenia razon en un arbol de discusion. Asi que estoy seguro que hay modelos y gente trabajando en ello.