#3439 #3436 Lo llevaré un punto más allá.
Cuando tienes pruebas técnicas en tus procesos de selección, ves el código... y ves que algo no cuadra.
Pides a ChatGPT que te haga la solución a ese problema... y de golpe ves aquello que no cuadra: Todo.
Muchos juniors, al NO saber solucionar la prueba, ejercicio, funcion, etc... tiran de chatgpt. Y no para consultar y aprender. Sino como "solucionador" del problema. Ha habido ya casos en los que se han tumbado muchos applicants por hacer el problema con ChatGPT, hasta el punto de copiar y pegar TODO. Y cuando digo todo, incluyo las mismas lineas, saltos de linea, comentarios autogenerados, y hasta la funcion main de ejemplo para dispararl el script entero.
Esto, es un problema.
El senior/principal/lead, no necesita de chatgpt/copilot para solucionar su problema. Lo necesita para hacer más rápido aquello que es repetible y tedioso. Y en muchos casos, a menos que la empresa tenga la version de empresas de dichas herramientas, ni eso por posibilidad de no saber donde ira a parar ese prompt o codigo que le des.
#3440 Haces bien. Sobre lo de Copilot, no es cuestion de derechos. Es propiedad intelectual privada. Y al no saber que se hará con toda la información que el AI Assistant recoge del codigo propietario, que uso se le dará, etc... surgen problemas legales. En el momento en el que los modelos estén 400% seguros que la informacion de entrenamiento y aprendizaje NO salga del "nodo" de X empresa en la que está, cambiará.
Si no, imagina que los equipos de Meta y AdSense, reciben el mismo codigo sugerido, o a traves de ello, surgen problemas? No quiero imaginarme esas dos empresas, y GitHub Copilot ahi en medio del berenjenal.