Feda /dev/ - No Javascript allowed

Normas
spoiler
Personas non gratas
Memes feda dev




Konishi

Y para sacarse el certificado

1 1 respuesta
Soltrac

#49261 Qué cojones acabo de ver....

3
Aeran

Bueno, ya comence con el Odin Project que tanto se recomienda y estoy disfrutando como un cerdo.
Una vez configurada la maquina virtual, visual studio code, git, etc me viene la primera duda.
Cree un repositorio y soy capaz de subir datos desde el ordenador de mi trabajo y el de casa habiendo configurado varias claves SSH, pero mi duda es la siguiente: Teniendo claro que para subir y modificar cambios a varios archivos de texto que hice basta con commit y push, si cambio algo en github directamente como lo sincronizo en los portatiles en local? ¿La unica manera seria borrando y clonando el respositorio cada vez? Por ejemplo hago cambios con el portatil 1, actualizo mi repo en GitHub, pero en local en el portatil 2 se me quedaria desactualizado.

Quiero invertir tiempo y dominar estas cosas para acostumbrarme a ir haciendo las cosas bien desde el principio ya, muchas gracias!

5 respuestas
PhDfailer
#49263Aeran:

si cambio algo en github directamente como lo sincronizo en los portatiles en local?

git pull

efectivamente en el portatil 2 se quedaria desactualizado, hasta que hagas un git pull

1 1 respuesta
Soltrac

#49263 https://www.atlassian.com/es/git/tutorials/syncing/git-pull

1
Aeran

#49264 Gracias! Habia visto esto para GitHub desktop, que ya lo tengo instalado y funcionando en Debian https://docs.github.com/es/desktop/contributing-and-collaborating-using-github-desktop/keeping-your-local-repository-in-sync-with-github/syncing-your-branch-in-github-desktop

1 respuesta
Seyriuu

#49263 yo me lo pasé teta hasta donde llegué, si quieres vamos hablando por MP según vayas tirando sobre proyectos.

Del tema GIT mucho no te puedo decir porque yo usé lo imprescindible para el curso y hace mucho que no lo recuerdo, pero sí eché a faltar una lección basada en descargarte datos en local sin tener que perder todo lo que tienes en local y bajarte lo que haya en el repo

1
PhDfailer

#49266 es mejor que aprendas los principios básicos de git, al menos el pull es básico

ya en el futuro te puedes meter con temas de branches, pull request, merges... para aprender a programar con saber hacer commit, push y pull vas bien XD, ya es más que el FPero medio, te auguro buen futuro

1 1 respuesta
Fyn4r

#49263

Espero que no te líe más pero bueno

5
Seyriuu

#49268 Alguien de este hilo de hecho en algún momento comentó que teniendo herramientas gráficas para el git y demás no le parecía ni necesario aprenderse los comandos, que podías abrir la aplicación y con dos clicks del ratón hacer lo mismo de forma más intuitiva y mejor.

¿qué opinas?

Yo siempre he usado la consola (porque lo he usado poco), pero por ejemplo cuando setteo el NPM me cuesta horrores recordar como subir al GIT de forma que pueda cargar la web final, y siempre tengo que volver a mirarme una chuleta que tengo apuntada de los pasos, con la interfaz gráfica me imagino que todo eso será darle un click aquí o allá y apañao

3 respuestas
Lifecasi0

Yo llevo toda la vida usando la consola, me parece más cómodo.

Aeran

#49270 Yo prefiero aprender ahora mismo a usar la consola y ya tendre tiempo a hacerme la vida mas facil si la interfaz es comoda.

PhDfailer
#49270Seyriuu:

Alguien de este hilo de hecho en algún momento comentó que teniendo herramientas gráficas para el git y demás no le parecía ni necesario aprenderse los comandos, que podías abrir la aplicación y con dos clicks del ratón hacer lo mismo de forma más intuitiva y mejor.

¿qué opinas?

En mi opinión, lo importante es saber lo que estás haciendo, lo hagas con comandos o interfaz gráfica da igual.
Yo casi nunca uso comandos para git, excepto el clone o pull, y estos porque normalmente andas instalando cosas y te sale más comodo no salir de la terminal.

Es verdad que hay cosas avanzadas que son complicadas de hacer con interfaz gráfica, pero es que esas cosas las acabas haciendo una vez cada mil y te toca googlear/tirar de chat gpt para recordar la sintaxis.

A mi por ejemplo la interfaz gráfica para git de VSCODE me parece una delicia, pocas cosas hay que no puedas hacer, y hay extensiones muy buenas para Pull Requests:

3
Aeran

Bueno, gracias majetes, os dejo el repositorio que e creado https://github.com/AeranG/Cheat-Sheets

Zh3RoX

A mi me gusta más usar git por la consola, pero hay cosas como Git Kraken que visualmente es mucho más atractivo y aclaratorio si tienes que manejar muchas ramas.

PhDfailer

Friendly reminder del potencial de Chat GPT para aprender:



5
B

#49270 yo utilizo la consola para el trabajo diario y si tengo que hacer algo relativamente complejo uso una GUI

1
desu

Si quieres mañana hacemos una call y abro streaming en Twitch para todo el hilo y comentamos todas las dudas que tengas en vivo.

Hasta que me canse te enseño todo lo que quieras.

Streaming en horario laboral solo obviamente.

3
desu

como ya os dije, apple empieza a soltar la bomba de ML on device vs ML on cloud (nvidia, microsoft)

https://www.mediavida.com/foro/electronica-telefonia/evento-wonderlust-apple-presentacion-iphone-15-martes-12-se-702916/17#500

siri en apple watch ya funciona en local

se prepara la bomba de soltar el "siriGPT".

ya lo conte en su dia, embedded ml vs cloud ml. apple lleva años trabajando "en secreto" en el embedded mientras chatgpt y demas son opciones cloud. si apple gana seguira siendo el rey otros 20 años y tumbara miles de empresas que apuestan por el cloud.

la cuestion es si apple llegara a tiempo o no. que por capacidades lo van a lograr.

3 respuestas
pelusilla6

#49279 No creo que pueda ser comparable 1tb de datos y VRAM digamos ilimitada vs lo que puedas meter embebido en un apple watch

Pero si, faltarán unos años pero irán apareciendo poco a poco versiones mini

1 respuesta
desu

#49280 ya lo explique en su dia, lo que se hace es cuantizar el modelo. un modelo original de 100GiB lo puedes reducir a 5GiB de espacio. los numeros de compresion me los he inventado, lo interesante es que esta compresino es muy muy bestia. puedes googlear a cuanto se comprime un llama. y los requerimientos de los modelos son bastante pequeños si se optimiza bien. hoy en dia puedes correr un llama.cpp en un portatil con 6gib? creo.

por el hilo hay gente que toca los modelos que te dara mejores numeros. el apple watch no tendra 250GiB de espacio pero un macbook ya los tiene.

por lo que se el LLM esta trabajandose y no descartan ir cloud. no descartan empezar cloud y luego embedded. pero la gran parte del dinero se esta quemando en el embedded.

hoy he visto este thread por ejemplo: https://news.ycombinator.com/item?id=37484135

tambien puede ser que apple te sace custom models por usuario, refinando su LLM acorde a tus necesidades. esto no lo se ni tengo ni idea, me lo acabo de inventar. pero si se me ha ocurrido a mi se le ha ocurrido a los ingenieros de apple y ellos sabran si es valido o no. 20 usd por usuarios... no es mucho dinero.

The model we fine-tuned performs similarly to GPT-4 and costs just $19 to run over the entire dataset.

Apple quizas esta entrenando su LLM y con tus datos cada X tiempo te hace un refine de 20 usd.

1 1 respuesta
pelusilla6

#49281 Pero luego tienes el problema de la potencia, ahora mismo te puedes meter algún modelo (evidentemente más básico que chatgpt) en local pero incluso con una buena gráfica te tarda lo suyo.

No estoy puesto en el tema embebido y veremos, pero yo creo que falta muchísimo para lo que piensas, al menos al nivel de ChatGPT en cloud.

PD: Lo que veo es soluciones híbridas, que te entrenen un modelo propio como tu dices con tus datos y luego vayas a su Cloud.

1 respuesta
desu

#49282 Estoy considerando que el modelo no sera el mismo para un watch que para los airpods que para un macbook. yo hace años que no hago ml como te digo y estoy fuera del tema.

cuanto tarda llama.cpp en responder queries y que hardware necesita? si me pasas benchmarks y tests te doy mi opinion. llama.cpp se ha cuantizado y eso hace que requiera menos cpu y ram tambien.

aqui puedes ver algunos ejemplos open source https://towardsdatascience.com/quantize-llama-models-with-ggml-and-llama-cpp-3612dfbcc172
x3 de compresion. 1TiB modelo => 333GiB. 333GiB ya te cabe en un macbook.

El mayor problema del embedded como comente bajo mi criterio, es la seguridad para que no lo roben XD ahi entra el cripto y el hardware. pero claro. apple controla la vertical y es posible para ellos sacar algo ahi.

si alguien lo puede hacer es apple. cualquier otro tiene que asociarse con nvidia, los microchips, etc.

Fyn4r

#49279

en secreto

Aún me acuerdo la presentación del iPhone X que todo era machine learning esto, machine learning lo otro

1 respuesta
desu

#49284 A ver... imagina.

According to data analyzed by the Watch Faces team, the Apple Watch's annual sales hit 53.9 million in 2022,

Modelo LLM y hacer custom tunning a 20 usd por usuario.

53.9 m * 20 usd = 1B usd

quick math.

Dime que empresa puede dejarse 1B en una prueba asi XD

Pero vamos, que no tiene sentido te lo dice cualquiera, pero un par de clusterings y sacar 5000 modelos customs por ejemplo.

al final el perfil de usuario de apple watch no es tan heterogeneo... gente que corre, mujeres que controlan la regla y cosas del embarazo, nadadores, gente que va en bici y gente que la usa para tareas del dia a dia...

siri actualmente en el series 9 ya te saca muchisima informacion custom de tus datos...

nobody1

#49178 Pues yo quiero probarlo y si la SS avisa, se dice que tienes un curro el finde de otra cosa y fuera. Mientras hagas tu trabajo bien...

Wei-Yu

como ya os dije

TheBrotha

#49263 https://learngitbranching.js.org/?locale=es_ES haz un inciso y avanza un poco en esto, ya verás que claro te queda

2
_Rpv

#49279 y sería una locura que saquen algo que utilice toda la potencia de tus dispositivos apple?
En plan: Mira, puedes exportar el video en el Mac utilizando hasta la potencia del móvil si quieres

1 respuesta
desu

#49289 no creo que sea viable

el problema seria compartir los datos, cargarlos en memoria y luego compartirlos de nuevo

esos tiempos de conexion no creo que ganen a mejorar la cpu o parelizar mejor tu trabajo en local

quizas alguna carga de trabajo concreto se podria hacer si el software target tambien esta optimizado, no deja de ser un batch distribuido, el problema es que por ejemplo procesar un video o una foto, podrias hacer capas intermedias pero al final siempre necesitas tener todo en el mismo despositivo para hacer las compresiones o encodings que toquen

hoy en dia te puedo asegurar porque he visto el codigo, existe mucho campo de mejora en este apartado, las librerias de manipulacion de fotos y videos son muy muy malas. estamos hablando de que yo te podria hacer algo que va x1000 mas rapido que el estado de arte actual... pero no interesa.

lo que si que trabajaba apple es lo que comente un dia. tener un portatil con pantalla es una boberia. deberias ser capaz de tener un macbook, que solo fuese "el hardware" y tu conectarte a cualquier pantalla. eso es el futuro de los pcs. el problema es que cultural y socialmente hemos avanzado hacia un mercado donde cada persona tiene varios componentes de hardware que son INDEPENDIENTES en lugar de avanzar a que una persona tiene un elemento persona y luego tenemos hardware COLABORATIVO.

en un mundo ideal como explique hace unos meses, tu no tendrias un "laptop de trabajo". entrarias a una maquina remote con una seguridad, un entorno, un hardware y unas capacidades que ni te imaginas xq nunca se ha trabajado en esa direccion.

2 respuestas