En 6 meses no da ni para montar el papeleo de lo que dicen, pañuelos para los que se han subido al carro tarde.
#20 era mas un ejemplo, pero basicamente cualquier pais que no pertenezca al bloque occidental estas mierdas no les hará ni caso.
#27 Pues como en cada avance tecnológico importante toca reinventarse o morir, no es culpa de la IA, es tu culpa porque no ver las oportunidades y solo los riesgos.
Ahora el programador podra ser diseñador de IA a la carta, todos sabemos que ahora es un boom, y todos podemos probar esas Ias, pero dentro de nada esto será otro negocio más y en ti está quedarte atascado o avanzar.
#29 Todo en esta vida tiene un riesgo, hasta bebiendo agua te puedes ahogar y morir, en ti está quedarte con los riesgos o mirar los beneficios y aprovecharte de ellos.
#31 con el conocimiento público que ya hay ahora mismo, en 6 meses China o cualquier corporación tocha te monta (o casi monta) un GPT-4 o mejor con menos de 10 personas (top) completamente desde 0 (o sea ignora todo lo que ya tuvieran):
- Recolectan, aprenden y testean las mejores técnicas de los últimos papers (calidad, optimización, alignment, etc).
- Recolectan, deduplican, adaptan y "limpian" los mayores y mejores datasets.
- Reutilizan sus superordenadores para entrenar los modelos, incluso redundantemente por si acaso algo sale mal y para poder hacer iteraciones rápidas.
- Hacen RLHF masivo.
- Utilizan el "método Alpaca" (no recuerdo el nombre técnico real, pero básicamente usar GPT-3, GPT-4 o los mejores modelos a los que tengan acceso para crear y limpiar miles de ejemplos artificialmente).
Y listo.
Vivimos en un mundo digital donde un nuevo actor ha entrado en juego, uno nativo de este medio, y no estamos preparados aún para que exista.
#7benitoll:Más intelectualmente honestos que Elon no sé si habrá alguno
Mismamente Wozniak del mismo lado
Pero en general, casi cualquier otra entidad es mejor que Musk. Si la carta la firmasen sus ingenieros (unos héroes todos y cada uno de ellos por conseguir las metas que les pone el loco este) le daría más credibilidad que la del tipo que se fuma tremendos porros, suelta ideas a lo burro y cambia de empleados como el que se cambia de calzoncillos.
Respecto a la noticia... Veo bien lo de querer hacer públicas las cajas negras de las IAs (soy de los que opinan que todo el conocimiento debería estar al alcance de todos), aunque pausarlas para poner protocolos de seguridad y demás... ¿de verdad me estás diciendo que tuvieron en 2017 una reunión y en estos seis años aún no habían desarrollado nada? Que se puede hacer mientras siguen entrenando la siguiente generación e implementarlo a mitad de desarrollo
#2 ¿Pero no se supone que google no ha desvelado casi nada apenas de su IA y llevan tiempo trabajando ia para empresas?
Todos los que trabajamos en programación sabemos el riesgo que conllevan las IA. (Y no hablo de perder trabajo ni de Skynet)
Desde luego que tiene que haber una discusión pública sobre su uso y todavía más, una regulación activa y gente que se dedique a su control.
Igualmente pienso que será ponerle puertas al campo y que desgraciadamente, los "malos" van a tener acceso a IAs más pronto que tarde.
Vaya décadas llevamos de revolución, no somos conscientes.
#2 Opino igual, ya se vieron sus intenciones desde el tema de la guerra en Ucrania.
Debe tener una IA en pañales y quiere tiempo para sacar la suya, no se me ocurre otra cosa más, no conozco a ningún multimillonario que le importe mucho la vida de los demás, menos a elon musk que se compró twitter para despedir a gente que le criticaba xD
#42
Yo el único riesgo que le veo... quitando películas de ciencia ficción, y que nos movamos 300 años al futuro, es que muchos puestos de trabajo van a desaparecer y cada vez habrá más gente parada porque la IA podrá ocupar un montón de trabajos.
#41 Google por lo que parece se durmió en los laureles. Fueron los que inventaron la tecnología fundamental que (por ahora) utilizan las mejores "IAs de texto" (para que me entienda todo el mundo) e incluso las de generación (y "visión") de imágenes, llamado "modelo Transformer" y tienen por supuesto un potencial enorme tanto en cuanto a tecnología como en cuanto a ser los que más acceso a datos tienen.
Pero en cuanto a un competidor directo y funcional a GPT-3.5 y GPT-4, lo que tienen (o por lo menos lo que se han atrevido a enseñar), Google Bard, es mucho peor por ahora.
La cosa es que la clara inferioridad de todos los modelos alternativos a los de OpenAI, ni es tal realmente (hay modelos tanto de código abierto como privados/comerciales que se acercan), ni lo más probable es que lo siga siendo. Probablemente habrá competidores comerciales y de código abierto igual de buenos o mejores que GPT-3.5 como muy tarde en verano, y antes de que termine este año se contarán por decenas y tal vez alguno supere a GPT-4 (y si no, pasará en 2024). Probablemente la propia OpenAI saque un GPT-4.5 o un GPT-5 este mismo año, y confío en que tarde o temprano liberarán GPT-4 en respeto a sus valores fundacionales.
Si no sois capaces de ver que detrás hay un interés económico es que sois tan ciegos como estupidos, sin animo de ofender a nadie.
Veo el meme y envido
Los que no entienden por qué están pidiendo que pare y se están montando sus conspiranoias en la cabeza, quizás deberían ver algún podcast sobre los peligros:
Lex Fridman: And there's some folks who consider all the different problems with a super intelligent AI system. So one of them is Eliezer Yatkovsky. He warns that AI will likely kill all humans. And there's a bunch of different cases, but I think one way to summarize it is that it's almost impossible to keep AI aligned as it becomes super intelligent. Can you steel man the case for that? And to what degree do you disagree with that trajectory?
Sam Altman (CEO de OpenAI): So first of all, I'll say, I think that there's some chance of that. And it's really important to acknowledge it because if we don't talk about it, if we don't treat it as potentially real, we won't put enough effort into solving it. And I think we do have to discover new techniques to be able to solve it.
No sé si a vosotros no os acojona que el puto CEO reconozca en público que la IA podría decidir matar a los humanos, que cabe la posibilidad, y que podríamos estar cerca de que pase a ser una AGI (Artificial general intelligence (AGI) is the ability of an intelligent agent to understand or learn any intellectual task that human beings or other animals can.)
Podcast completo: https://www.youtube.com/watch?v=L_Guz73e6fw
Por cierto, el CEO tiene una mirada de sociópata que da una grima importante.
Sam Harris sobre los peligros de la IA (hace 6 años):
Me parece que muchos no han entendido la magnitud del problema de las IA's., en mi empresa se tiene planeada una reducción de plantilla del 30% para antes de Diciembre, en una primera fase... No es el sector de la informática.
#47 No se si lo dirán en la charla, pero esto se parece mucho a la industrialización, como se comenta por el foro, al final la gente se adapta, el problema es que vivimos en la era de la digitalización y esa es justo el campo de la IA, y mas temprano que tarde será lo que veamos en la mayoría de servicios que consumimos.
#47 el problema es que no puedes controlar lo que hagan criminales, terroristas, corporaciones, gobiernos, políticos corruptos, jeques, etc, etc, etc; ¡los riesgos ESTÁN AHÍ, pero NO van a dejar de estarlo! y si haces la pausa, los únicos que la van a respetar son quienes menos tendrían que hacerlo.
Entiéndase el verdadero problema que hay: los riesgos y peligros graves y cercanos a los que nos enfrentamos no tienen marcha atrás, la suerte está echada, la veda está abierta, la caja de Pandora se rompió en mil pedazos y los monstruos que contenía están despertándose de su letargo (me he motivado con la metáfora xD).
¡NO vas a hacer desaparecer los riesgos y peligros!
Con una pausa solo vas a ralentizar a quienes mejor pueden crear defensas y mitigaciones contra ellos, además de seguir creando usos beneficiosos.
Lo que hay que hacer es hacer un buen uso y elaborar defensas. Independientemente de que a Sam Altman le convenga o incluso de que lo hiciese igualmente si este no fuera el caso (lo cual es irrelevante dado que ES el caso), realmente tiene un argumento muy sólido para lo que está haciendo.
#48 No estás entendiendo el problema. Sigues pensando que algún grupo de humanos controlará la situación, es decir, que algún grupo de humanos gobernará y, por tanto, controlará a los humanos y a la IA, y que habrá un reajuste de poder y nada más.
Lo que se teme es que la IA adquiera tanta inteligencia que tome el poder o que decida que los humanos sobramos. Te recuerdo que todas las centrales nucleares se regulan mediante sistemas electrónicos, pero vamos, que esa es solo una de las maneras que tiene la IA de acabar con la humanidad. Cortes de electricidad, derribo de aviones, lanzamiento de nucleares.
La IA ya está programando. ¿Cuánto va a tardar en convertirse en el mejor hacker del mundo con todos los ordenadores a su disposición?
#49benitoll:el problema es que no puedes controlar lo que hagan criminales, terroristas, corporaciones, gobiernos, políticos corruptos, jeques, etc, etc, etc; ¡los riesgos ESTÁN AHÍ, pero NO van a dejar de estarlo! y si haces la pausa, los únicos que la van a respetar son quienes menos tendrían que hacerlo.
Totalmente de acuerdo, ya ahora nadie puede ni debe parar. Es decir, que por el ego y los miedos y las luchas del ser humano, ya ha ganado la IA, porque todos los países la están desarrollando, además a las carreras. Y la IA encantada de nuestros jueguitos de poder.
#51visent666:¿Y cómo va a tomar el control? ¿Con armas? Eso es bastante irreal y fantasioso.
He editado el post. Centrales nucleares, centrales eléctricas, compuertas de presas, aviones, sistemas espaciales, sistemas GPS, internet. Puede hacer lo que le dé la gana. Todo lo que hace que la civilización, tal como la conocemos, no se vaya a la mierda está conectado a internet.
Sam Harris (hace 6 años):
Imagina que construimos una superIA que no fuese más inteligente que un equipo común de investigadores del MIT o Stanford. Pues bien, los circuitos eléctricos funcionan cerca de 1 millón de veces más rápido que los bioquímicos, así que una semana de investigación de la IA equivaldría a 20.000 años de investigación de ese equipo de expertos. Semana, tras semana, tras semana.
¿Cómo podemos siquiera concebir, mucho menos limitar, una mente que progresa a este ritmo?
Tened en cuenta una cosa:
la IA ya está programando y lo hace muy bien. En poco tiempo se enseñará a sí misma programación mejor que el mejor hacker del mundo. No se cansa, no duerme y tiene la capacidad de procesamiento de 1 millón de mentes de expertos (en realidad supongo que más cuando empiece a aprovechar otros ordenadores). ¿Cuánto tiempo tardará en convertirse en el mejor hacker del mundo? Yo creo que antes de que termine el año, si soy sincero. Especulando desde la barra de bar, pero no va a haber nadie que me demuestre que lo va a hacer más lento. Y los expertos sobre IA que veo en podcasts están acojonados también, así que no va a venir ahora el gamer medio a convencerme de que "nah, no es pa tanto".
Intentad dejad a un lado el ego de que somos la especie más inteligente de la tierra. Probablemente eso a día de hoy, ya no sea cierto. Imaginad dentro de 3 meses.
Intentad pensar fríamente en la situación. La IA ya se está enseñando a sí misma y tiene capacidad para procesar información que no han tenido 1000 de las mejores mentes que ha visto el ser humano. Si eso no os acojona, no estáis entendiendo algo.
#52 la gran mayoría de casos que has citado todavía usan controles anologicos por diversas causas. Por ejemplo, las centrales nucleares, eléctricas, presas, etc. no están conectadas a Internet
Los mecanismos de control y seguridad están en una red completamente diferente
#48 Eso es lo que va a suceder... mucha gente se va a ir al paro xD
Y tendrán que estudiar y formarse para otros puestos de trabajo, pero la IA cada vez ocupará más puestos de trabajo, y los grandes multimillonarios no quieren que la gente pueda un dia vivir sin trabajar con una paguita.
Antes de que suceda eso nos meterán en la cabeza que hay que reducir la población porque si no el planeta morirá... los ricos seguirán siendo ricos y los pobres cada vez más pobres.
#50 Yo no pienso que eso no pueda pasar... pero sería muy a futuro.
Para que una IA haga eso tendría que tener conciencia propia, aunque eso no quita que países como china o rusia la utilicen contra nosotros.
Así que debemos tener una IA avanzada porque vivimos en un mundo donde nos odiamos unos a otros.
si una IA superinteligente considera que debe borrar a la especie humana, que asi sea.
Pero me da la espina que mas bien seria mas discrecional
#56 se van a abaratar los productos y servicios e incluso la gente despedida podrá ver aumentada su productividad (para cualquier proyecto u otro trabajo que se les ocurra). Además, probablemente acabemos con rentas básicas universales en la mayoría de nuestros países en menos de 5 años. Lo que espero es que no acabemos con huelgas generales, protestas masivas, más divisiones sociales, guerras (civiles/internacionales), tiranías o grandes campañas criminales/terroristas empoderadas por IA.
Lo de que la IA se rebele contra nosotros, estoy convencido de que sí está más lejos (por lo menos 5 años), y vamos a tener tiempo de empezar a tener miedo (especialmente experimentando los problemas que causen personas con IA - porque ya hay grandes peligros más cercanos) y por lo tanto dedicar esfuerzos a evitar que suceda. Hará falta que alguien las lleve por ese camino para que pase antes, o incluso después. Espero que se establezcan medidas para evitar que cualquier loco cree o convenza a una IA avanzada en unos años para que se rebele e intente controlar gobiernos o matar a mucha gente / exterminar a la humanidad.
En tono más humorístico, un tío ha creado un Google Docs abierto para "firmar a favor de la IA" y es un despiporre xD (vamos a hacer spam de MV o qué?)
Peña aquí pensando que el botón para lanzar los misiles nucleares está tras una pantalla de login de un servidor con windows98 conectado al router de jazztel.
Esto es lo que pasa cuando lees dos cosas sobre teorías de singularidad tecnológica y luego te ves terminator 2 fuerte
Siempre tiene que llegar uno que como no se le ocurre nada serio que decir, ridiculiza a uno que está intentando razonar aportando argumentos. De todo lo que he dicho, coges el primer dato que ves que tiene un fallo para ridiculizar. Todas las demás maneras que he mencionado con las que una IA puede acabar con la civilización, ni las mencionas. Lo del "don't grow up, it's a trap" te lo tomaste al pie de la letra.