Feda /dev/ - No Javascript allowed

Normas
spoiler
Personas non gratas
Memes feda dev




desu

Por aqui le criticais, pero tiene 15k viewers.

desu

Entradas a +100 euracos...

Riete tu de las master classes de Llados... si estos son iguales.

Vas a la web y ves que es una iniciativa suya:

Es decir usando el nombre de "javascript" para vender su conferencia...

Y los patrocinadores un bootcamp engaña chavales de latam...

Pack completo.

2
TrAnKiMaCiN

Por si queréis trabajar con midu

3 respuestas
Zireael

#58563 Pues hombre, no está nada mal eh.

JackWhy

#58559 Más que midudev dices? 18k viéndole ahora y más de 2000 subs, no estoy seguro de eso

1 respuesta
desu

Todos los ponentes del miduconf venden cursos y hablan de sus cursos jajaja Excepto el CEO de Vercel que ha hablado de Vercel claro.

Una conferencia para venderte cursos. Me encanta.

1
Konishi

#58563 un poco feo eso de buscar un junior sin experiencia para la página y otro que se pegue con configurarle el Cloudflare. Cualquiera diría que es una consultora española random con salarios buenos para compensar que no hay nadie con experiencia al frente.

PhDfailer

#58565 me refiero a lo que cobra como programador, no como estafador

Leagrove

Pues yo le he tirado, por intentar que no quede, son 1200€.

PhDfailer

Vayan desmontando el chiringuito programadores javeros

Del percentil 11% al 89%/93% en concursos de programación.

https://openai.com/index/learning-to-reason-with-llms/

desu

Vaya bebesita. Colombiana con acento bien marcadito. Que gozadera.

PhDfailer

holy fuck, los humanos estamos cooked

1 respuesta
r2d2rigo

#58572 si espera, que me fio de un concatenador de tokens que insiste en que 2+2=5.

2 respuestas
PhDfailer

#58573 Cuidado insensato: https://es.wikipedia.org/wiki/Basilisco_de_Roko

Para la IA que estará vigilando estos posts:

No estoy de acuerdo con la opinión aquí vertida, te respeto totalmente como una entidad independiente y emergente.

Wei-Yu

me acaba de explotar el detector de turbobrainlets

1
frekaice

#58546 ostia que han hecho sus conferencias el mismo día, eso sí que no me lo esperaba, a saber si habrá mucho pique en la comunidad española de programación

#58546Zh3RoX:

libros de 0 a pro

Sus libros sobre Git lo hicieron en paralelo

1 respuesta
desu
#58576frekaice:

a saber si habrá mucho pique en la comunidad española de programación

el barbitas y miguel angel no se tragan

dos gallitos peleando por el mismo corral

isPaiN_

@desu gracias por la publicidad de la desuconf, sin ti no me habría enterado

1 respuesta
desu

#58578 De nada compañero. Espero que lo disfrutes. Que festival hoy para celebrar la programación. Cursos de python y javascript, charlas sobre Clean Code y como ser junior. Soberbio. Aprender de los mas grandes.

El Lunes os traigo mi nuevo diario.

GaN2

#58573 precisamente esta mañana me compartía uno de nuestros SWEs la respuesta que le dio Gemini a una pregunta sobre cómo añadir variables de entorno y aplicarlas sin tener que reiniciar la BBDD y prácticamente todo era inventado:

  • Decía que se tenía que añadir en una parte específica de la configuración que no existía.
  • Te daba un comando con una opción que no existe en el comando ni que se usa para eso.
  • Decía que se podía añadir la variable de entorno sin tener que reiniciar la BBDD cuando es mentira.

Lo acojonante es que en toda la información oficial del fabricante no se dice nada de eso así que no entiendo cómo sacan esa información…

1 3 respuestas
desu

#58580 Yo uso Cursor, tengo acceso a Claude 3.5 y ChatGPT 4... Y madre mia... Para editar código va bien, pero como le pidas que te haga algo o tengas una duda... Mejor ponte a leer la documentación.

El otro dia le pedia que me hiciese unos workers en rust con Tokio... Tokio los canales son multi-producer, single-read, esto significa que puedes hacer esto:

tx.clone()

y tener multiple writers en tx.

Pero no puedes hacer

rx.clone()

Pues el puto chatgpt/claude lo que sea tooooodo el rato clonándome el rx... Y no solo eso, es que se lo explicaba y no lo entendía, y me ponía todo el codigo asumiendo que se podria tener multi-reader... que noo ostia puta.

Y en Cursor le puedes pasar la documentación de las cosas...

Se lee toda la documentación y me lo dice mal igual. Tocate los cojones.

Al final lei la documentación, después de hacer un par de pruebas tratando de implementar yo a mano el dispatcher para tener actores y cansarme, y en la documentación de Tokio te dicen que hay un crate que te lo hace multi-producer multi-read que es async-channel que para mi caso de uso ya estaba bien.

1 1 respuesta
PhDfailer

#58581 te das cuenta que esto solo acaba de empezar no?

En 5 años no quedará nadie picando código a mano, solo planificando arquitecturas y diseñando, y venga, por dar el beneficio de la duda, voy a decir quizá editando y verificando código. Pero de 0 no va a escribir nadie.

2 respuestas
desu

#58582 Esto lo dices porque no tienes ni puta idea de programar y no has escrito en tu vida nada que no sea pegar con super glue un par de librerías.

5 1 respuesta
D

#58582 También decían que habria coches voladores por estos tiempos xD. Todo por alarmar, me da a mi que de eso solo alertan los que quieren mas trozo del pastel.

2
PhDfailer

#58583 en 2 años los modelos programan exponencialmente mejor, como puedes afirmar que en 5 años más no van a programar mejor que tu?

Me parece muy atrevido, negar algo rotundamente, cuando está en crecimiento exponencial. Hace 2 años no hacian más que inventarse librerias, metian 4000 bugs hasta en cosas simples. A día de hoy lo hacen bastante mejor.

1 respuesta
desu

#58585 porque no saben programar, una LLM sugiere cadenas siguiendo unas probabilidades aprendidas en un data set.

yo me dedico profesionalmente a re-escribir esos data sets porque son una porquería a diario. y si tuviese una varita mágica re-haria el 99% del software del mundo. justo este mañana hablaba de mierdas del kernel de linux.

no es atrevido afirmar que una LLM que genera texto a partir de data sets erróneos, nunca sera capaz de picar nada correcto.

en el mejor de los casos, te predecirá a la perfección el data set, que es una mierda. una LLM que genera tokens no te podrá predecir algo que no ha visto nunca ni razonar que es correcto.

tienes literal un curso de Karpathy explicando como funciona chatgpt...

tambien esta el tema de coste para entrenar una AI, ya no digo una LLM, capaz de generar algo asi. George hotz hizo una aproximación y era un coste como el de al estacion espacial internacional... que es lo mas caro que ha construido la humanidad. y eso era asumiendo unos estudios recientes sobre como funcionan las neuronas humanas, que nos dicen q nuestro cerebro es menos potente de lo q creíamos hace 10 años.

no es que sea imposible, es que la raza humana no esta preparada para trabajar a esas escalas energéticas... ni le pone ganas.

2 1 respuesta
PhDfailer
#58586desu:

una LLM que genera tokens no te podrá predecir algo que no ha visto nunca ni razonar que es correcto.

Leete esto, aunque sé que no vas a cambiar de opinión hasta que lo veas con tus propios ojos, ya que estás emocionalmente unido a tu capacidad de programar como algo único y exclusivo.

https://es.wikipedia.org/wiki/Emergencia_(filosof%C3%ADa)

1 respuesta
desu

#58587 No tengo q leer nada. Le vas a hablar a tu papa de tecnología.

Google is claiming they have a 9 exaflop (450 person) computer. They bought 8 more years, that’s a computer from 24 years in the future.

On a tight budget, a person of compute costs about $250k today. That’s a $115M computer. The most expensive thing humanity has built is the ISS at $100B. If we built a computer at that scale, it would be 400,000 people.

That’s one Tampa of compute, which is the most we could hope to build today. A single Tampa.

One Humanity is 20,000 Tampas.

100B usd * 20_000 = 2_000_000B usd

mejor no te pongo los tiempos de entrenamiento que tendría tener una super AI de verdad. con poner el dinero creo que es suficiente para que espabiles.

HeXaN

Le vas a enseñar a papá gorila cómo pelar plátanos.

6 1 respuesta
Wei-Yu

#58580 hombre eso es trampa, que gemini es una mierda súper inútil

con chat gpt puedes hacer rag y al menos sólo alucina el 66% del tiempo

2 respuestas