La pregunta va dirigida a personas con conocimientos reales sobre IA.
Me refiero a si es posible desarrollar un modelo de IA entrenado en varios campos que se automejore recursivamente, trazando sus propias estrategias de automejora y reprogramándose. Obviamente en esa reprogramación el propio modelo se podría romper, también puede desarrollar como ciertas conclusiones erróneas y no ser capaz de volver atrás en su proceso deductivo para llegar a la conclusión correcta.
¿Qué haría falta para lograr algo así a nivel de recursos?