Almendralejo, menores y uso de la IA

Vhsephi

a mi no me sorprende en lo absoluto la verdad

Si ya antes había peña desesperada con las APP que "desnudaban" ahora con IA´s que pueden hacerlo esto iba a pasar en menos de 24 horas.

inmor

Tambien te digo, que los chavales lo habran hecho mas por hacer la gracia en clase de informatica que otra cosa.

Que les pongan esa pena y luego los menores acompañados haciendo cosas 9000000 veces peores campen a sus anchas me parece lamentable.

Nerviosillo

Recuerdo que advertí sobre esto en los primeros hilos de IA y algunos me tomaron por loco cuando dije que la IA es una herramienta extremadamente poderosa que no debería estar al alcance del público civil xDD

Cuando se perfeccione la generación de audio y empiecen a saldarse cuentas con audios de whatsapp falsos que se difunden con el afán de que una empresa, clase o grupo de personas cancelen a otra, veréis la risión.

3 respuestas
B

Pero realmente es castigable crear un falso cuerpo y hacer la gracia?.

Empezaremos a perseguir a los dibujos también?

Y si dibujo la cara del de arriba comiéndose una buena pollarda, puede denunciarme?.

La generación de cristal da lugar a la generación de hojarasca.

2 respuestas
Nerviosillo

#124 ¿Es castigable faltar al honor de una persona distribuyendo imágenes falsas de su cuerpo y cargándote su imágen pública mediante humillación?

Un dibujo sabes que es mentira por lo que no es comparable. Si no sabes si ese cuerpo es o no mentira, empieza a complicarse la situación pero bastante.
A mi no me molaría una mierda que se distribuyeran imagenes con mi cara por ahí, y menos aún si parecen reales.

1
MaTrIx

#123 si ya vivimos en la era de la desinformación, cuando eso pase, que pasará, va a ser una locura. Creo que ni si quiera estamos cerca de estar preparados para la irrupción de la Ia. Desde que puedan suplantar tu identidad, deep fakes, robo de contraseñas, datos bancarios, etc.... Y eso sin meterse en que habrá que ver como va a afectar al mercado laboral.

1 respuesta
Nerviosillo

#126 Por suerte los más dañados en esto van a ser los políticos y precisamente por eso van a meter mano muy rápido.

Lo que no se es como, y eso me asusta más.
Leí hace no mucho que la solución pasaba por migrar toda la computación a la nube y no permitir tener hardware propio con suficiente capacidad de proceso al civil medio (IAs exclusivamente propiedad de empresas con licencia y gobierno) o por vincular todos los dispositivos a un ID exclusivo de tu persona y que todos tus movimientos digitales dejaran un rastro propio facilmente trazable, a la China.

No se cual de las dos soluciones me da más asco xD

kalvinone

El tema está en que estas herramientas ya están disponibles como open source y se ejecutan localmente por lo que prevenir su uso es prácticamente imposible. Esto significa que la gente va a poder hacer literalmente pornografía a la carta, de quien quieran con una muestra de voz y un par de fotos como aquel que dice.

La única medida de prevención son los filtros que pongan las RRSS a este tipo de contenidos y la obligatoriedad de firmar digitalmente cualquier imagen (De hecho ya se está trabajando en este estándar)

Pero en el fondo todo el mundo sabe que el que quiere compartir, y más en internet, va a poder. Así que la única manera de poder poner un freno a esto es un control aún más exhaustivo del tráfico de cada persona, lo cual es, literalmente, el modelo chino.

En fin, que se nos está quedando un internet monísimo oye.

1 respuesta
MaTrIx

#128 al final se va a tener que decidir entre dejar Internet tal y como está y que nos llenemos de fake, desinformación, suplantacion de identidades, etc.... O lo que dices, el modelo chino o al menos si más restrictivo de lo que hay ahora.

1 respuesta
Nerviosillo

#129 La política es quien decide si hay o no modelo chino, y la política es quien más desea controlar la desinformación.
No van a permitir que estas herramientas campen libres cuando pueden ponerle coto rápido.

O puede que si que lo pudieran preferir. Las IAs como chivo expiatorio son la polla. "Ese audio en el que se me caza consumiendo prostitución infantil? Eso no fui yo, fue una IA que imitó mi voz".

1 respuesta
MaTrIx

#130 la cuestión es si en algún punto se va a poder realmente demostrar si una imagen está generada por ia o no. Como digo una imagen digo un video. Si no se puede demostrar, estamos jodidos. Realmente es como tu dices, un político va a poder decir no, no fui yo, es la ia.

1 respuesta
alalaz_XV

#131 Empresas especializadas en peritaje de audiovisuales. Se va a poner las botas.

kraqen

#123 Llevan meses usandose en estafas y bulos políticos. No me extrañaría que ya se esté usando para venganzas y casos como los que expones.

Lo único que todavía hace falta una muestra de audio bastante extensa y de calidad decente, y eso es algo que no está tan al alcance de conseguir para cualquiera, a diferencia de coger 3 fotos de instagram u otras redes. Y puede que algo de post-edición para que quede convincente. Pero algún caso habrá ya, solo que no sonado como el del hilo.

Pero vamos, como el resto: el genio está fuera de la botella desde hace tiempo.

1 respuesta
Nerviosillo

#133 Un micrófono/grabadora de 100€, lo tienes una semana grabando a fuego en un bolsillo en el curro, recortas luego en casa fragmentos y sacas las samples que te de la gana.

Es un peligro tremendo pero bueno, a verlas venir.
Cada día me alegro más de no subir fotos mías a internet desde Tuenti en 2006.

1 respuesta
WaRdIx

Cuando Internet lo usábamos 4 frikis con un módem 56k y esperabas a las 18:00 para conectarte por la tarifa plana. Foros, Counter, petardas el rellano, IRC y a dormir.

Ahora decidme que cualquier tiempo pasado no fue mejor.

B

Me hacen gracia los visionarios del foro, como si cualquier cosa nueva no tuviera el lado que lo usan los de siempre para hacer el mal XD

Tras

Lo de poner puertas al campo siempre sale bien xD

Habrá que aceptar que si publicas una foto, cualquiera va a poder modificarla y hacer con ella lo que le salga del toto. Y voy mas allá, cualquiera que se muestre en público va a tener que aceptar eso.

A menos que se saque rédito económico de ello, va a estar muy jodido reclamar nada. El dinero siempre deja rastro y es perseguible (más o menos).

Esto de los deepfakes va a cambiar nuestros conceptos de intimidad e imagen. Porque lo que único de lo que podemos tener la absoluta y total certeza es que: No va a dejar de pasar.


Las 2 opciones que muchos plantean son:

Limitar el acceso a la IA: meh, hay proyectos como el de FB que puedes meter todo en un pc sin conexión a la red y hacer ahí todos los deepfakes que te apetezcan. Esto existe HOY, imaginad en un par de años xD

Limitar el acceso a la red (modelo chino): Mehx2 Sería una buena decisión si lo que se quiere es potenciar redes alternativas como TOR y la darknet en general xD. Olvidaos de que esto funcione. Obviamente la gente seguirá compartiendo lo que le atraiga o le haga gracia, ya sea por bluetooth de terminal en terminal o a través de enlaces .onion dificilmente rastreables.

1 3 respuestas
Nerviosillo

#137 Te queda la opción 3, que la propuso la propia OpenAI.
Limitar la venta de hardware (CPU/GPU) solo a empresas con licencia, centrar toda la informatica de consumo civil en Cloud capado (que es a donde se está moviendo todo) y que para tener hardware suficiente para correr IA tengas que tener licencias trazables.

Pregunta a MS con su Gamepass y su Azure si esto le parece interesante o no.

Decís lo de puertas al campo alegremente, pero ni de coña internet es tan libre como lo era en los 2000, y cada vez irán cercando más.

2 respuestas
Tras

#138 llegamos tarde para esa propuesta de open AI. Por eso ni la planteo. Quizás en los 90 hubiera tenido sentido, ahora mismo no. Ya que como dije la IA de Facebook es standalone y es una realidad tangible hoy. Y es solo un ejemplo que todos conocemos.

¿Me estás contando que se van a poner a requisar transistores x las casas? xD

#138Nerviosillo:

Decís lo de puertas al campo alegremente, pero ni de coña internet es tan libre como lo era en los 2000, y cada vez irán cercando más.

Esto es más que opinable, en los 2000 acceder a una red como la de TOR era casi ciencia ficción al alcance de 4 colgados. Hoy está al alcance de 4 clicks. Ten por seguro que cuanto más aprietes en la red mainstream más se va a usar TOR y similares. La gente encuentra los huecos siempre.


Pregunto, xq puede ser interesante para fijar el debate, ¿tendríamos el mismo debate si en lugar de imágenes generadas x ordenador, fueran cuadros al óleo hiperrealistas mostrando exactamente las mismas escenas de mujeres desnudas imaginadas x el artista humano? ¿Dónde está la frontera entre lo aceptable y lo no aceptable?.

1 respuesta
Blue_ogre

Yo sigo diciendo que basta con que obliguen a que los sistemas operativos restrinjan el uso de determinadas librerías si no se emplea un ID.

Lo cuelas como normativa europea y au. Quizás habrá gente que se saltará la restricción pero desde luego no el usuario promedio.

Nerviosillo

#139 ¿Que no? Dudo que ocurra, pero es perfectamente viable si te lo propones.

Das un lustro, deja que sigan subiendo los precios de componentes y que se hable más de cambio climático y como se reduciria en un nosecuantos por ciento si se limita el consumo energético en dispositivos civiles, y que se ahorraría un no se cuantos por ciento si se centraliza en Cloud, y tienes el mercado virando con toda la calma del mundo.

Y no te vas a poner a requisar como dices, pero tranquilo que cambias el standart para que las piezas nuevas no sean compatibles con las viejas, forzando obsolescencia. No todo el mundo te va a saber arreglar una GPU ni va a tener un PC del año la polca para usar IAs piratas desfasadas sin conexión a internet.

Si están eliminando los vehículos de combustión interna, pueden eliminar el uso de CPU/GPU en hogares xD

EDIT: A día de ahora puedes denunciar si un "dibujo" se te parece demasiado por usar tu imagen como modelo, asi que, si. Y más aún si estás entrenando a una IA con fotos.
Mira el follón que hubo con TLOU y Ellen Page, que me parece que TLOU se escapó por poco (no recuerdo bien, tho).

1 2 respuestas
Tras
#141Nerviosillo:

Si están eliminando los vehículos de combustión interna, pueden eliminar el uso de CPU/GPU en hogares xD

Y les está saliendo dpm, ya casi no se ven coches de combustión y nunca nunca jamás han tenido que cambiar la fecha umbral para que se produzca el cambio de paradigma xD

No tenemos una bola de cristal y a saber x donde tiramos, pero creo que la realidad se va a llevar x delante cualquier debate. La realidad es que esto es solo el principio y nos va a cambiar sociológicamente en muchos ámbitos. El de la privacidad y conceptualización de la imagen tb.

Veo más probable que nos deje de importar lo que hagan o dejen de hacer con nuestra imagen a que se pueda restringir el hardware de la forma que comentas. But who knows ;)

1 respuesta
Nerviosillo

#142 Yo lo más probable que veo es el sistema chino, tbh.
Ya veremos lo que pasa, como dices, pero que ilegalicen de verdad el navegar por internet sin verificación lo veo más que posible.

1 respuesta
Tras

#143 Pues vamos montando empresas de vpn xq serán el futuro xD

1
usarmy

Yo creo que es una llamada de atención a valorar aunque sea un poquito más tu intimidad y anonimato. Los actores y demás, que ganan millones con su presencia o imagen, no me dan lastima que los usen para follarse un cerdo.

Pero las aspirantas a influncer de tres al cuarto que se han dedicado a trazar una imagen completa de todo su cuerpo en bikini, a cambio de que? Cuatro babosas dando like. Bastante lástima.

kraqen

#138 OpenAI estaba hablando de limitar GPUs del estilo A100, no una 4090ti, si mal no recuerdo.

Era limitar entrenamiento de generaciones superiores a sus productos, nunca han hablado de limitar el uso.

1 1 respuesta
Nerviosillo

#146 Perdón por la confusión.

#146kraqen:

Era limitar entrenamiento de generaciones superiores a sus productos

No saben nada los zorros xD

1 respuesta
kraqen

#147 Bueno, ellos dicen que si el gobierno hace algo así, compartirán sus logros con las empresas buenas en pos de la seguridad. También ten en cuenta que esto lo dicen pensando en la creación de AGI o sistemas peligrosos/con grandes repercusiones a escala social/global, no cosas como esta. Es un contexto muy diferente

Aunque ClosedAI un día dice una cosa y al siguiente otra.

Si quieres ver algo draconiano a escala menor, mira la propuesta de Adobe de que todo en internet tenga un sello criptográfico y hacer copyright de estilos y formas xd

1
treetops

#141

Si están eliminando los vehículos de combustión interna, pueden eliminar el uso de CPU/GPU en hogares xD

Los están eliminando ahora que la alternativa de coche eléctrico es más rentable que el de combustión, los gobiernos tienen margen para hacer siempre que den alternativas reales. Muchas veces pensamos que los escenarios apocalípticos donde un gobierno tiene el poder absoluto son reales pero hasta el momento los gobiernos solo son capaces de imponer realidades que afectan mínimamente la calidad de vida del ciudadano, si el día de mañana intentan recortar la calidad de vida de los ciudadanos, por ejemplo impidiendo a la gente viajar en avión o usar internet sin dar una alternativa viable, la población se revelaría.

Tras

Nuevo caso en Ayamonte, y ni si quiera ha sido usando una "IA".

Nuevo caso de fotografías sexuales: investigan a un menor de Ayamonte por 'desnudar' a 20 compañeras.

La Guardia Civil ha identificado a un menor de Ayamonte (Huelva) que modificó digitalmente fotos de una veintena de chicas de su instituto para mostrarlas desnudas.

No obstante, el único implicado fue un joven de 16 años que mediante la aplicación de Photoshop 'desnudó' digitalmente a sus compañeras de clase. Solo modificó fotografías y no realizó ningún vídeo, según estas mismas fuentes. Al igual que en el caso extremeño, las imágenes fueron 'robadas' de los perfiles de redes sociales de las víctimas.

Esto va a ser un no parar. Tanto que van a dejar de sacarlo como noticia para evitar efecto "llamada". Al tiempo.

Prohibimos el photoshop¿? (y el gimp tb? Y el paint)

1 respuesta