Feda /dev/ - No Javascript allowed

Normas
spoiler
Personas non gratas
Memes feda dev




Wei-Yu

https://peps.python.org/pep-0695/

poco a poco python se acerca a lo que debería haber sido desde el principio a nivel de sintaxis

ya la implementación y los cientos de syscalls para sumar y restar lo dejamos para otro runtime

#44819 yo nunca he usado kafka como buen scrub

Kaledros

Madre mía el grandma exploit XDDDDD

4
eXtreM3

Se han caído cosillas de OVH no? Algún afectado?

Dr_Manhattan

habrán hecho otra barbacoa de servidores?

JuAn4k4

#44804 claro, yo imagino que irán saliendo muchas de la primera también porque gente como aws/google/Microsoft tiraran a ofrecer eso como servicio, royo IaaS pero en IAaaS ?

1 3 respuestas
KarlosWins

.

1 1 respuesta
aren-pulid0

#44825 #44826 https://huggingface.co/

1 respuesta
Dr_Manhattan

#44827 justo iba a poner esa jajaj

Yo he usado algún modelo pre entrenado de esa página en el curro y te resuelve la papeleta.

Hay modelos que han hecho FAANGs tipo Meta etc

desu

#44825 Ya hable del tema. Nvidia y Apple estan haciendo la guerra a las plataformas de IA. Existe una idea que es la de "Quantization" que podeis entenderlo como comprimir un modelo de ML. Y esto lo estan aplicando para hacer LLM embedded.

Actualmente algo como un ChatGPT son unos 2TB, me lo invento, pero se puede comprimir para que pese 1TB incluso 500GB. Existen varias tecnicas y desarrollo al respecto. No es como comprimir un zip que hay un maximo teorico, en los modelos de ML se puede comprimir MUCHO.

La idea de Apple es que quieren que su ChatGPT sean <500GB y metertelo en el Iphone embedded, usando sus chips especificos de NN para no gastar CPU. De esta manera, vas a tener acceso a ChatGPT4 sin lag a nivel de OS. Una locura. Accesible con syscalls y procesandose en chips dedicados.

Imaginate que estas programando una app para iphone, imaginate que tienes una lib que se llama "SiriGPT" que hace lo mismo que ChatGPT pero instantaneo. Para que usas una API externa que ya te añade una latencia y ademas vas a pagar?

Quien va a pagar por APIs de AI si en el futuro el OS (Apple, Nvidia) te van a proporcionar hardware y modelos de LLM que hacen lo mismo "gratis"?

Esta demo de Meta es un gran ejemplo, estan metiendo un modelo que SOLO PESA 8MB! https://segment-anything.com/demo Una locura. Con 8MB puedes implementar en client side segmentacion instantanea.

3 respuestas
Kaledros
#44829desu:

Una locura

Si lo meten en un iPhone significa que lo meten en un Apple Watch, lo que significa que podré cumplir al fin mi sueño de infancia: hablarle a mi reloj como si fuera Michael Knight y que encima me conteste.

5 2 respuestas
desu

#44830 A dia de hoy ya existe la tecnologia para tener traduccion instantanea por ejemplo. Que tus airpods te traduzcan instantaneamente. Tener el modelo embedded te permitira que tus airpods tradujeran sin necesitar tu apple watch/ipad/mac.

Pero todas las grandes se lo estan guardando y van a ir poco a poco.

No quieren mostrar las cartas aun al gran publico.

Lo mismo se podria aplicar a gafas de AR. Tener un modelo embedded como el que he puesto de meta que te haga segmentacion y de ahi mandarlo a tu laptop. Latencia <1 ms. Ponle <5ms si quieres.

Los modelos embedded son la revolucion real.

2 respuestas
Seyriuu

#44831 Pues para el viaje a japón que quiero hacer eso estaría de puta madre

desu

En fin, estoy de vacaciones del hilo, pero he tenido que postear porque no teneis ni puta idea y sois anormales.

Que nadie se meta en una startup de estas de AI as Platform porque van a morir.

O si alguien se mete que sepa la realidad.

Por cierto, para el calvo @Kaledros https://arnaudiaz.com/blog/types-of-coroutines/

Es esta la mejor explicacion de coroutines en todo internet?

2 1 respuesta
Kaledros
#44831desu:

A dia de hoy ya existe la tecnologia para tener traduccion instantanea por ejemplo

El otro día lo pensaba, pero creo que el reconocimiento de voz en entornos normales no está muy allá. Quicir, la Siri de mis suegros está sorda como una puta tapia si hay más de dos personas y la tele hablando, imagina eso por la calle.

1 respuesta
Seyriuu

#44834 En Teams tienes una función para activar los subtítulos en reuniones, yo cuando tengo reuniones internacionales lo pongo, le digo que el idioma es inglés de reino unido, y de cada 5 palabras que transcribe, se equivoca en dos.

Si estuviera suficientemente perfilado (quizás una IA que pudiera escuchar y entender frases enteras y luego buscar la transcripción más adecuada) sería estupendo. De repente podrías tener a gente de todo el mundo hablando en su lengua y saliendo subtítulos en pantalla.

2 respuestas
desu

#44835 La realidad de muchos modelos es que no son publicos para evitar abusos / robos.

Si Google me permite eso con Google Meet o Microsoft con Teams, yo podria abusar su codigo y robarselo facilmente.

Como aun no esta claro como monetizar y evitar estos abusos / robos, no hay features.

Una industria con miles de millones de usd a las espaldas, ahora que hemos llegado al momento clave no sabemos como proteger las cosas. Estamos en ello.

1 respuesta
Kaledros

#44835 En Google Meet pasa igual. Si encima le sumas que no todo el mundo que habla un idioma lo hace académicamente y que hay tres millones de acentos incluso entre los propios hablantes... ya no es un francés hablando inglés, es que a ver qué IA tiene cojones de entender a un escocés al que no entienden ni los ingleses.

2 respuestas
desu

#44837 Eso es un problema de long tail que se arregla con dinero.

George Hotz por ejemplo considera que la conduccion autonoma esta resuelta por esto mismo. Porque las tecnicas y metodologias ya estan desarrolladas, solo falta que alguien invierta el dinero en la computacion.

1 respuesta
Seyriuu

#44836 ¿No se puede proteger con sistemas de patentes o algo? Pues a ver si el tema sale pronto porque sería una mejora enorme.

#44837 Sí, la primera limitación es la de no no tener multidioma, tienes que elegir uno y es el único que "sabe" transcribir y sólo si se habla con determinados acentos, sin demasiadas prisas...y sin saber leer el contexto.

1 respuesta
Sphere

#44829 #44830 todo eso molaría, pero luego me acuerdo de la primera hostia cuando pensé que Siri iba a ser revolucionaria para finalmente convertirse en el peor asistente virtual posible because “muh privacy”.

Estaría bien que Apple nos sorprendiera en esta WWDC, pero no me hago muchas ilusiones al respecto. El año que viene seguro que ya tendrán algo preparado.

desu

#44839 Necesitas criptografía encima del modelo y en el kernel.

Una opción que seguramente barajan es retrasar los modelos embedded pero que la api que usen los usuarios sea la misma que la del kernel final.

Así se desarrolla apps inteligentes de mientras y algún día te venderán el toggle. Igual que con los chips de NN. Ya hicieron algo similar.

Y mientras han desarrollado la seguridad.

Pero vamos, nadie quiere dar pistas.

1 respuesta
Kaledros

#44838 En las traducciones simultáneas es más un problema de tratamiento de la señal de audio que otra cosa. Si tienes que desarrollar un algoritmo que te separe señales en una calle con tráfico te puedes pegar un tiro en la polla.

1 respuesta
Seyriuu

#44841 Corren el riesgo de que otra compañía saque esa feature y se lleve un pedazo del mercado, pero supongo que tienen sus estudios para saber cómo de cerca están sus competidres de ello

#44842 En este caso hablamos de una llamada de teams, sólo ha de ser capaz de separar las voces cuando choquen entre sí, se podría diseñar ni que fuera un sistema rudimentario en el cual los canales de audio se bloqueen salvo para una persona y se vayan dando voz unos a otros (tipo moderador en un debate) hasta tener una tecnología que permita separar las voces de unos y otros y traducirlas de forma independiente

1 respuesta
desu
#44843Seyriuu:

Corren el riesgo de que otra compañía saque esa feature y se lleve un pedazo del mercado, pero supongo que tienen sus estudios para saber cómo de cerca están sus competidres de ello

Eso es lo que me preocupa, mira mierdas como Docker que salieron en el momento justo y han sido un lastre para la industria.

A mi como consumidor me gusta pensar que Apple y Adobe estan colaborando, como hicieron con los chips de ARM. Y que Adobe no esta haciendo nada in-house a parte.

El tema es que invertir por ejemplo 5M de usd en un proyecto de AI in-house, y quedarte en bolas porque dentro de 2 años te saldra una alternativa que solo te costara 200k usd adoptar... Es dificil de medir.

Todo el mundo va a ciegas en esto y al final es cuestion de suerte. Quizas pegas un pelotazo y compensa, quizas no.

1 2 respuestas
Kaledros

#44844 Yo estoy harto de decir a mis colegas que esto va a ser más grande que el smartphone, posiblemente un cambio a nivel de la popularización de internet, pero siguen pensando que estoy hypeado. Pero es que sí creo que va a ser un cambio al nivel de la popularización de internet.

2 respuestas
Dr_Manhattan

#44845 claro que lo va a ser, el que no quiera verlo está ciego o tiene miedo

1 respuesta
Kaledros

#44846 Que en el fondo es normal, la industria lleva unos años hypeando cosas que estaba claro que no iban a ninguna parte o eran directamente estafas (cryptos, blockchain, etc), y que se hable en los mismos términos de los modelos de lenguaje natural no ayuda. Entre eso y que es demasiado bonito para ser verdad (a mí mismo me cuesta creerlo, sólo con lo que existe hoy en día puedes pasar cualquier prueba técnica del nivel que quieras en una FAANG), no me sorprende que la gente esté en negación.

1 respuesta
doogie780

#44844

Eso es lo que me preocupa, mira mierdas como Docker que salieron en el momento justo y han sido un lastre para la industria.

Desarrolla esto (te puedes flipar lo que quieras que te escucho)

1 respuesta
PaCoX

google ya tiene un sistema que te coje un meet, te lo analiza y te crea docs, graficos, analisis, traducciones, etc. Tmb tiene un sistema de moderacion por ia, etc xd

Seyriuu

#44845 Yo desde el primer momento he dicho que las IA lo van a petar muy fuerte y van a ser una revolución, soy como el tío ese que anuncia el segundo advenimiento del mesias.

Pero en serio, creo que llegará, por ejemplo como ya expliqué aquí, aplicado a mi experiencia laboral, una IA medio entrenada y pulida puede coger todos los programas online y batch hechos en cobol de un banco y en apenas un rato haberlos pasado todos a java, a nivel tonto podría hacer una transcripción 1:1 asegurando que el compliable de java actúe de la misma forma que el compilable de cobol, una IA mejor podría además mejorar la programación y, manteniendo que el input y output sean los mismos, hacer que el algoritmo sea claro, limpio, evite repeticiones...etc.

Los bancos llevan años gastándose burradas de dinero por no poder migrar el código de cobol o migrándolo muy poco a poco simplemente porque los servidores de IBM son puto caros. Con esto te has fumado el trabajo de cientos de personas y sólo necesitas unas pocas para hacer el QA que seguramente, se vería muy asistido también por una IA, y si nos da mucho miedo, dejamos lo más core (lo que toca dinero) en cobol pero las 9000 cosas que tenemos en cobol que si se rompen tampoco pasa nada, las migramos con las IA.

Y algo que no se ha podido hacer en los últimos 20-30 años lo tienes hecho en menos de un año en cuanto tengas una IA que sepa programar a un nivel de programador medio. Ahora mismo yo en chatGPT ya he hecho pruebas de enchufarle código y pedir que lo convierta y sí es cierto que hace algunas cosas mal y hay que pulirlo, pero imagínate una IA entrenada y dedicada a programar y no el chatgpt que es más una demo.

La revolución que va a venir con las IAs va a cambiarlo todo muchísimo, es que encima a todo le veo una aplicación práctica, ¿Netflix? seguro que pueden poner una IA que aprenda del consumidor mejor que el algoritmo que tienen, que se comunique con él, y le ayude a elegir qué pelis o serie ver.
¿Videojuegos? Muchísima más inmersión.
¿Robots sexuales? Ahora capaces de interactuar contigo y decirte lo muy macho que eres follándote un tonel de silicona adornado