Piden pausar 6 meses desarrollo de IAs (nivel GPT-4 o superior

MaTrIx

#89 lo jodido es que da igual que tengas estudios que no, que tú empleo puede estar en juego. Y eso acojona un montón.

Yo me imagino que los gobiernos tendrán que tomar decisiones complicadas respecto a eso. Por que si que se dice que algunod empleos se perderán y otros surgirán, pero yo no lo veo tan seguro.

1 respuesta
Doest

#Para evitar riesgos en la sociedad"

https://twitter.com/Teknofilo/status/1639758580441030658?t=KCIzi-yEmo0NayoZ56D_Eg&s=19

Seyriuu

#91 Lo sé, créeme, que llevo toda la vida metido en proyectos de IT de bancos y cuando el chatgpt3 este entré y probé a decirle que hiciera mi trabajo y lo hacía, de forma aún deficiente, pero corrigiéndole yo lo hacía.

No me quiero imaginar el chatgpt 5 del futuro la capacidad que tendrá... Y si, lo malo de esto es que se perderán muchísimos más trabajos de los que - yo creo- que se ganarán, y que seguramente al final serán cuatro ricachones los que monopolicen el beneficio de las IA, porque si me dijeras que oye, perdemos el trabajo, pero esto ha mejorado la calidad de vida de todo el mundo de forma brutal, aún te lo compro.

2 respuestas
Dredston

-

MaTrIx

#93 al final o los políticos encuentran una solución o le da que estamos jodidisimos.

También digo que yo por mi ansiedad tiendo a ser catastrofista y luego quizás todo esto sea beneficioso y yo simplemente soy incapaz de verlo

1 respuesta
desu

#93 El problema es el mismo que en la revolucion postindustrial.

Se aumento la productividad con las maquinas y la tecnologia pero los ESCLAVOS deben seguir trabajando 8h al dia.

Ahora se va a aumentar de nuevo la productividad, y la sociedad necesita esclavos, por tanto vamos a seguir queriendo tener a la gente de clases bajas 8h al dia para controlarlos.

Los seres humanos de a pie, solo somos ESCLAVOS para las elites.

Por eso se habla de paguitas universales y seguir trabajando 8h al dia.

No veras a ningun "LIDER MUNDIAL" recortar las jornadas a 2h o 4h al dia... porque eso es una "locura".

Ellos quieren ESCLAVOS.

#95 Los politicos no quieren ninguna solucion, van a dar paguitas universales para que la gente pobre dependa del estado y mantener la rueda girando.

Sacamos herramientas que pueden reducir las jornadas laborales de 8h a 2h... pero eso no va a suceder. Ni interesa que suceda.

La sociedad no se adapta para mejorar a las nuevas tecnologias, la sociedad se adapta para SOBREVIVIR COMO ESTA a las nuevas tecnologias.

Porque el objetivo no es que todos vivamos mejor, es que las grandes fortunas SIGAN por encima de ti y mandando.

1 3 respuestas
B

Si alguno se molesta en leer la carta, tiene cosas con sentido como que no se sabe como funcionan más allá del entrenamiento al que se sometan y cada vez las abren más a lo que es internet.

Aquí no se habla del fin de la sociedad, si no del uso descontrolado que pueda tener y que puedan inundar el mundo de fake news, controlar opinión etc, y en eso lleva razón. Si aquí MV ya se come las fake de 3 en 3 no me quiero imaginar cuando haya un bombardeo mediático y se de por sentado.

Se que esto no se puede usar como muestra, pero si lo extrapolas a twitter te queda una RRSS preciosa.

1 respuesta
MaTrIx

#96 también digo ¿ese aumento de la productividad es posible en todos los sectores? Por qué al fin y al cabo, los recursos son los que son y son finitos.

Seyriuu

#96 Pues yo creo que mucha gente pasará de trabajar 8h a trabajar 0h, porque para las empresas supondrá mucha rentabilidad reducir la plantilla un 50 % y gracias a la IA tener el mismo nivel de trabajo o incluso más. Y dudo que de repente todas las empresas de IT puedan coger 12 veces más proyectos y no necesitar deshacerse de la plantilla.

Por otro lado, estoy totalmente de acuerdo en el tema del control, la jornada laboral más allá del rendimiento económico que extraen de nosotros es una herramienta de control y por eso aunque la jornada de 4 días parece ser que da mayor rendimiento positivo (según estudios) no la vamos a ver, porque es perder un trozo de poder, y porque si la gente de abajo tiene mucho tiempo libre y están descansados es peligroso porque igual se rebelan, mejor tenerlos cansados y controlados.

kraqen

#97 Que digan cosas que tengan sentido parcialmente no quita que huela a intereses económicos de muchos de los firmantes, ni que demuestren que esos seis meses sean decisivos para nada más que para su propio beneficio. Porque actualmente, en el tema del AI alignment no hay nada claro tampoco, ni parece que en seis meses se puedan resolver esos problemas. Si quieres nos lo puedes explicar tú, ya que implicas estar más informado que la media del foro.

1 respuesta
B

#100 Estoy seguro de estar informado más de la media del foro que dice que el informe habla de skynet.

claro crack, y la magia existe.

1 respuesta
kraqen

#101 Veo que tampoco tienes mucho más que aportar, gracias por aclararlo.

1 respuesta
B

#102 si buscabas en mi un resumen mascadito de la carta abierta siento la decepción, pero te invito a que la leas al menos y luego argumentes "algo" que invite a debate.

De nada por lo demás.

1 respuesta
nervlos

está claro que las personas que no ven los riesgos de la IA es porque no ven todo su potencial y este es casi ilimitado para lo bueno y para lo malo, en las manos adecuadas y con el dinero necesario puede ser cualquier cosa. Está en una fase temprana pero mejora tan rápido que muchos vemos que podría ser el arma o herramienta definitiva para cualquier cosa, a afectos militares, médicos, económicos, administrativos, logísticos, análisis de todo tipo de datos, etc.

P

Una pregunta para los que más saben de este tema:

Si una IA se compone de parámetros introducidos por los humanos, una IA por lo tanto no puede aprender nada nuevo por si mismo, es decir no puede inventar nada que nosotros no hayamos ya inventado.

Entonces.. ¿hasta que punto de verdad se le puede considerar inteligencia y no únicamente un sistema que recoge datos ya existentes y te los muestra?

2 respuestas
kraqen

#103 Si la carta es una página y ya te he planteado una pregunta: ¿qué sistemas de seguridad/aligment de cara a futuros modelos se pueden crear en 6 meses que tengan suficiente garantía con los modelos actuales? GPT4 se creó en agosto del año pasado y no han logrado en estos 7 meses hacerlo seguro al nivel de estándares que implican.

Ahora podrías responder si querías debatir algo, o puedes seguir aplaudiente a ti mismo por leer una página de texto.

1 respuesta
WinnieSirPo

#105 Este video lo explica muy bien, esta en ingles y pasa de largo del titulo:

1
Chaotic

6 meses xDDD

Cuanto llevamos con las RRSS y con las IA pretenden que con solo 6 meses la sociedd ya este mas preparada para ellas...

vene-nemesis

Las IAs en si no son el problema real que tenemos, como han dicho por mas atrás el problema es que no hay legislacion, aunque realmente que no haya legislación es luna consecuencia de que en el gobierno no hay gente capacitada para analizar el impacto de las nuevas tecnologías a corto y medio plazo. Un ejemplo "tonto" es el tema de las lootboxes en videojuegos, son una clarísima forma de enmascarar apuestas para saltarse la legislación sobre menores, que los pocos paises que medio han legislado el tema lo han hecho 5 o 6 años tarde.

Si vemos la velocidad a la que avanzan las IAs, que encima en cuanto estén mas pulidas va a ser un crecimiento exponencial en cuanto a capacidades, si los gobiernos reaccionan 5, 6 o mas años tarde, las consecuencias del uso no regulado no van a ser tan "suaves" como las del resto de tecnologías provenientes de IT.

1 respuesta
P

#109 Ten en cuenta que en España ya de por si cosas del día a día para nada complejas nuestros políticos (aka legisladores) son incapaces de crear leyes correctas, suerte con que aprendan a legislar sobre IA .. en tiempo y forma de como supuestamente esto está avanzando

Básicamente mejor abrir un nuevo ministerio de tecnología y que el ministro sea una IA.

desu
#105Prodyhig:

una IA por lo tanto no puede aprender nada nuevo por si mismo

No.

Una AI si puede aprender e inventar cosas que nosotros no sabemos.

Porque lo que evaluamos al final es el resultado/output de la AI, no el aprendizaje en si.

Aunque no es facil.

Tu puedes entrenar una AI para hacer matematicas, y puede inventar nuevas formulas que no conociamos y demostrar que estan bien, evaluando que los resultados al final esten bien.

Lo que se repite tanto de que "no entendemos como aprenden" / "como funcionan por dentro" es mentira. Lo que cuesta es traducir/explicar las capas intermedias a algo que un humano comprende... Igualmente, nosotros tampoco sabemos muy bien como las conexiones neuronales funcionan XD

Los videos de 3brown1blue por ejemplo explican las bases de las redes muy bien:

1 respuesta
B

#106 No me importa responder, pero entiende que no vea los edit constantes.

No he defendido que la pausa de 6 meses sea adecuada ni si es correcta, solo he mostrado preocupación en algo que ya se está dando como es la casuística de las fake news en twitter, y que cuelan. Imagina con un desarrollo IA detrás.

Creo que no es tan dificil de entender el planteamiento ético que se está intentando establecer. Eso no quita que haya intereses económicos.

No sé en que momento has entendido que soy una autoridad en la materia cuando me he subordinado estrictamente al contenido del hilo y en su defecto de la carta.

tute07011988

¿Eso que veo es un neoliberalturbosensato pidiendo regular un mercado? JOJOJOJOJO

1
Kaos

Siempre he pensado que vivimos en un bucle temporal generado por la tecnología (un accidente), del que no somos capaces de salir, porque siempre llegamos al mismo punto donde la tecnología nos vuelve a llevar al principio. Ahí os dejo guión para la nueva película del verano.

Al hilo: parar el desarrollo es imposible. También es cierto que la civilización no está preparada para la velocidad a la que van los avances tecnológicos (no lo estábamos ni para las RRSS, imagina esto que viene).

1 respuesta
R

Jajajaj. Estamos en el final de galactica

2
aLeX

#114 Has dejado el guión de Battlestar Galactica.

So say we all

Yandros09

Bueno, los que opináis también que tiene que regularse un poco kekw. Pongamos al gobierno detrás para que te digan lo que quieres leer xd

P

#111 Si pero por ejemplo no tiene opinión propia ni criterio, cuando le pregunte por cual seria el mejor sistema para gestionar un país, tira de ambigüedades y lo único que hace citarte es los distintos sistemas, pero no es capaz por si sola de posicionarse, es que eso es fundamental en una inteligencia y lo que de verdad para mi si seria un avance grandísimo.

Si los datos introducidos son por humanos, las IA pueden ser corruptas como lo somos nosotros.

¿Puedes citarme algo que haya inventado una IA?

2 respuestas
B

En un futuro cuando las maquinas reemplacen a las personas en sus puestos de trabajo. ¿Cual es la solución para las personas?

ChatGPT
1 respuesta
B

#118 EL problema es cuando los datos no son introducidos por humanos.

Creo que no se habla de controlar, si no de "protección". En NY por ejemplo, se ha prohibido su uso de acceso en los centros escolares. Por que no hay cojones de detectar que un alumno haya hecho esa redacción o no.

Luego está el tema de que cualquiera tome por adecuada la respuesta y no se tome siquiera la necesidad de analizarlo. Algo que en el alumnado me parece un poco peligroso.

https://www.lavanguardia.com/vida/20230106/8669098/nueva-york-prohibe-escuelas-chatgpt-temor-mentiras.html

1 respuesta