Almendralejo, menores y uso de la IA

nervlos

titulares muy sensacionalistas, mucho ruido para ver si en un futuro se legisla algo más concreto. Los presuntos criminales menores de edad, el delito más grave sería la extorsión, que es un ataque directo y real, el tema de las fotos generadas por IA es incontrolable, y todo acabará en agua de borrajas, y miles de horas de tertulias.

DunedainBF

No veo tan claro que algo que en el fondo no es real sino generado por IA sea tan grave. Incluso si le pones la cara de una famosa o de tu crush y se generan imágenes realistas de su cuerpo desnudo, no veo la línea donde eso esté mal.

Por supuesto su publicación, su difusuón y hacerlo pasar por real sí, pero que se generes por IA imágenes o videos por IA basadas en personas reales, incluso si son menores y lo usas para masturbarte, a pesar de ser enfermizo y repugnante, no veo la diferencia con pintarlas a mano.

Kacto

#7
Esto venía a decir. A un delincuente menor de edad le dan un tironcito de orejas por cosas como robo, delitos con violencia, y hasta violaciones, pero a estos les van a enchironar por trastear con una IA para crear desnudos falsos? 🤣
No se lo cree ni el que lo ha escrito.

1
Cryoned
#28Ulmo:

Los legisladores tienen que ponerse las pilas y no solo perseguir a aquellos que hacen un montaje de ese tipo, sino también a quienes facilitan dichas herramientas para cometerlo sin poner ningún tipo de control a su uso

te has pasado de frenada.

eso es dejarle a los legisladores abierta la puerta para que digan que hasta el cifrado p2p solo se puede usar para delitos, o las vpn, o que te puedan leer el mail si total no vas a cometer un delito, por qué no dejar que acceda y lo lea un funcionario?

Tener photoshop, 5 años de cárcel, tener una gpu con 24gb de ram y stable diffusion instalado, 10.

11 2 respuestas
TigerT-

#34 Tener internet, cadena perpetua.

1
k0yi

#16 pienso lo mismo

MeCagoEnDios

Extremadura siempre en la vanguardia de España

B

En Extremadura ya detuvieron a un informático hace tiempo por difundir pedofilia generada por IA.

Ya veis, tierra de oportunidades.

pardier

no se que culpa tendras los chavales, lleva tiempo eso y no se han molestado en regularlo

tofreak

Pero a ver, como vas a pedir 9 años porque unos chavales se hayan hecho unas pajas con esa mierda?

Si intentaron extorsionar a las chicas de verdad pues si hay que darles un castigo por ese hecho pero en serio... 9 años?

1 respuesta
ESL_Kaiser

#40 9 años para un menor, es como una reprimenda y 2 semanas recogiendo basura en el parque

Hipnos

#16 Creo que los fotomontajes están penados también. Lo que se protege no es la imagen del menor en sí, sino la "sexualizacion de la infancia".

Bajo esa premisa, cualquier imagen simulada que pueda parecer real se considera pornografía infantil. Es una movida la verdad, porque en teoría es más cercano a un delito mental que una afenta contra alguien real.

A los efectos de este Título se considera pornografía infantil o en cuya elaboración hayan sido utilizadas personas con discapacidad necesitadas de especial protección:

a) Todo material que represente de manera visual a un menor o una persona con discapacidad necesitada de especial protección participando en una conducta sexualmente explícita, real o simulada.

b) Toda representación de los órganos sexuales de un menor o persona con discapacidad necesitada de especial protección con fines principalmente sexuales.

c) Todo material que represente de forma visual a una persona que parezca ser un menor participando en una conducta sexualmente explícita, real o simulada, o cualquier representación de los órganos sexuales de una persona que parezca ser un menor, con fines principalmente sexuales, salvo que la persona que parezca ser un menor resulte tener en realidad dieciocho años o más en el momento de obtenerse las imágenes.

d) Imágenes realistas de un menor participando en una conducta sexualmente explícita o imágenes realistas de los órganos sexuales de un menor, con fines principalmente sexuales.

Artículo 189 del código penal
2 respuestas
Ulmo

#30 y #34 Photoshop no es una herramienta para hacer desnudos, una web donde subes 10 fotos de alguien y te hace un video montaje pornográfico con la cara que aparece en esas fotos u otra web donde le pasas la foto de alguien en bañador y te genera una imagen realista desnuda, es una web que solo sirve para cometer delitos y muy poquito más.

No nos engañemos, un programa de tratado de imágenes por IA no es un photoshop, o el programa te lo venden ya con la funcionalidad entrenada o absolutamente nadie tiene conocimientos como para entrenar un modelo y de un programa genérico de IA sacarle un modelo entrenado que te desnude a nadie.

No es como photoshop donde existen usuarios con diferentes niveles de conocimiento. En las IAs de modelado de imágenes y video o diseñas el modelo (lo que requiere un alto conocimiento) o directamente te venden un snapchat que ya te lo da todo hecho y donde no puedes añadir nuevas funcionalidades.

#29 Sí, igual que las armas para seguridad, por eso no están prohibidas pero existen licencias de uso. Y yo no hablo de prohibir el uso de IAs, yo hablo de prohibir programas que desnudan a la gente. Y si la industria del cine necesita dicho programa, que contrate a una empresa que tenga licencia de uso. Igual que sucede con las armas.

5 respuestas
neZbo

#43 Es que, que me corrijan si me equivoco, no hay programas específicos para desnudar a nadie. Es el prompt y el modelo entrenado el que te proporciona ese contenido.

Me da a mí que va a ser algo difícil de regular y que se hará regulinchin xD

1 1 respuesta
Cryoned
#43Ulmo:

un programa de tratado de imágenes por IA no es un photoshop

vaya, curioso porque photoshop implementa esa característica de tratar imágenes por IA desde hace unos meses.

https://www.adobe.com/products/photoshop/ai.html

#43Ulmo:

Photoshop no es una herramienta para hacer desnudos,

photoshop es una herramienta para hacer lo que se te pase por la cabeza con las imágenes, y los fakes de desnudos de personas famosas hechos con photoshop existen desde hace 30 años

Y tampoco stable diffusion es una herramienta de desnudos, dependerá de lo que quiera el artista. Hacer pornografía con tu cara en photoshop se puede hacer exáctamente igual que con una herramienta de IA, con un poco más de trabajo pero exáctamente igual o mejor.

#43Ulmo:

o absolutamente nadie tiene conocimientos como para entrenar un modelo y de un programa genérico de IA sacarle un modelo entrenado que te desnude a nadie.

cualquiera tiene conocimientos para eso porque stable diffusion y similares son de código abierto, tienes 5000 tutoriales y para entrenarlos solo necesitas una base de datos que puedes crear y tunear tú mismo o cogerlas ya usadas.

#43Ulmo:

No es como photoshop donde existen usuarios con diferentes niveles de conocimiento.

entonces ¿Quieres prohibir software en base una supuesta complejidad de uso elegida de forma totalmente aleatoria?

3 1 respuesta
kraqen

#43 Estás viendo un salto mucho mayor entre cualquier web que haga el desnudo del modelo base del que hay.

#43Ulmo:

o diseñas el modelo (lo que requiere un alto conocimiento)

No, los modelos base son los suficientemente amplios que se puede reentrenar o redirigir con otras herramientas (Dreambooth, LORA, ControlNET) sin tener conocimientos de experto. Especialmente para hacer algo como esto.

Como he dicho, una web claro que va a caer. Pero no se van a cargar los modelos base, y sin eso el salto es sencillo y cada vez más sencillo.

#43Ulmo:

Y yo no hablo de prohibir el uso de IAs, yo hablo de prohibir programas que desnudan a la gente. Y si la industria del cine necesita dicho programa, que contrate a una empresa que tenga licencia de uso. Igual que sucede con las armas.

Es que el programa que desnuda la gente es el mismo que genera logos, pokemons realistas, paisajes y demás. Está solo ordenando pixeles. Incluso si quieres centrarlo mucho cuando sacas el producto final, es bastante complicado prevenir que o bien se reentrene, o bien se haga uno nuevo porque los procesos de entrenamiento cada vez están más optimizados y los ordenadores son más potentes.

#44 Podrías sacar del modelo final cosas vectores como desnudos. O del modelo del lenguaje que hace de interprete entre el prompt del usuario y el modelo, censurarle una buena lista de tokens.

El problema es que ambos son difíciles de implementar de una manera 100% certera, incluso con esas barreras seguramente hay maneras de saltárselo dirigiendo bien el prompt, e incluso el mejor de los casos, lo que sea código abierto se va a poder reentrenar.

1
allmy

Las imágenes no son reales. Puede ser delito la extorsión, vulnerar el derecho al honor, etc. pero desde luego el contenido de las fotos no.

Rassel

segun he leido la noticia un chico intentó extorsionar a otra menor con una de esas fotos. Eso desde luego debe ser penado.

Ulmo

#45 Por favor, seamos serios, no estoy diciendo de prohibir las IAs, habido de prohibir programas específicos que sirven exclusivamente para desnudar y similares.

#45Cryoned:

vaya, curioso porque photoshop implementa esa característica de tratar imágenes por IA desde hace unos meses.

Sí, y me correo electrónico también implementa funcionalidad de IA para hacerme resúmenes semanales de los correos que recibo. ¿Qué tiene esto que ver con la discusión si no hablo de prohibir las IAs?

#45Cryoned:

photoshop es una herramienta para hacer lo que se te pase por la cabeza con las imágenes, y los fakes de desnudos de famosas hechos con photoshop existen desde hace 30 años

Sí, y con una Playboy, una Lecturas, tijeras y pegamento también te hago un montaje de Paquirrín desnudo y con tetas. Si alguien quiere dedicar su maravilloso tiempo, conocimiento y dinero en pagar una licencia photoshop para hacer un montaje hiperrealista con photoshop ya sabrá de sobras en qué jardín se está metiendo. Que un chaval de 14 años con nulos conocimientos informáticos se meta en una web a subir 4 fotos de su compañera de clase para que la web le devuelva un video porno, no es un programa comparable.

#45Cryoned:

cualquiera tiene conocimientos para eso porque stable diffusion y similares son de código abierto, tienes 5000 tutoriales y para entrenarlos solo necesitas una base de datos que puedes crear y tunear tú mismo o cogerlas ya usadas.

Al fin abandonamos el hombre de paja de photoshop y nos centramos en un programa que se ajusta a la discusión.

Stable diffusion ofrece funcionalidades web con las que resulta prácticamente imposible cometer delitos de esta índole, es más, se les puede (y debería) exigir un control y responsabilidad sobre el contenido que su web genera. Esto es exactamente a lo que me refiero.

Entrando ya en el open source the stable diffusion. La parte de "cualquiera tiene conocimientos", no te lo crees ni tú. No ya usarlo y entrenar un modelo, es que el 99% de la población no sabe ni instalarlo para usar el ejemplo de prueba. El conocimiento necesario para hacerlo el bastante elevado, y precisamente ese conocimiento viene acompañado con un mayor entendimiento de las consecuencias de su mal uso.

1 respuesta
Sinso

#15 Seguramente ya lo haya.

kraqen

#42

2.3 Pornografía virtual

La denominada pornografía virtual es aquella en la que la imagen del menor es una creación artificial pero realista, elaborada por ordenador u otro medio.

El informe del Consejo Fiscal de 8 de enero de 2013 se hace eco de que la expansión típica se ha justificado por razones prácticas: muy pronto –ya es difícil- será imposible distinguir entre imágenes reales e imágenes generadas por ordenador.

El art. 5 de la Directiva 2011/93/UE imponía la tipificación de la posesión, producción y difusión de pornografía infantil virtual.

El nuevo art. 189.1.d, tras la reforma 1/2015 da cumplimiento al mandato del art. 5 de la Directiva de 2011 y tipifica las conductas relativas a los materiales virtuales. Se entiende como tal en el nuevo precepto, asumiendo literalmente la definición de la Directiva, las imágenes realistas de un menor participando en una conducta sexualmente explícita o imágenes realistas de los órganos sexuales de un menor, con fines principalmente sexuales (art. 189.1.d).

A fin de evitar indebidas extensiones del concepto de pornografía infantil, debe interpretarse restrictivamente el concepto “imágenes realistas”. Conforme al Diccionario de la Real Academia de la Lengua “realista” significa que “trata de ajustarse a la realidad”. Por tanto, “imágenes realistas” serán imágenes cercanas a la realidad, a la que tratan de imitar. Dicho de otro modo, serían imágenes que no son reales pero lo parecen. Podrían abarcar imágenes alteradas de personas existentes e incluso las imágenes generadas mediante ordenadores.

Por tanto, solo serán “imágenes realistas” potencialmente subsumibles en el concepto de pornografía infantil aquéllas que se aproximan en alto grado a la representación gráfica de un auténtico menor, o de sus órganos sexuales. Por ello, no deberán los Sres. Fiscales entender incluidos dibujos animados, manga o representaciones similares, pues no serían propiamente “imágenes realistas”, en tanto no perseguirían ese acercamiento a la realidad

https://www.boe.es/buscar/doc.php?id=FIS-C-2015-00002

Está es la instrucción de la reforma de la fiscalía.

Ni idea de como esté siendo esto perseguido o resuelto en tribunales, la verdad. Me pilló justo la reforma cuando cursaba la asignatura.

Si se está persiguiendo, desde luego van bastante lentos.

2 respuestas
cruten

Como se enteren que en tik tok lo hacen gratis les da algo.

kraqen
#49Ulmo:

a. El conocimiento necesario para hacerlo el bastante elevado, y precisamente ese conocimiento viene acompañado con un mayor entendimiento de las consecuencias de su mal uso.

Super complicado, tienes que verte 40 minutos de tutoriales.

#49Ulmo:

¿Qué tiene esto que ver con la discusión si no hablo de prohibir las IAs?

Si no prohíbes los modelos generativos en general, no vas a llegar a nada. Los pixeles de culo no son más difíciles de ordenar o aprender a ordenar para el programa que los pixeles de árbol.

2 respuestas
Cryoned

#53 eso los avanzados que quieren hacerlo a mano

cualquier lego se instala easy difussion o algo similar y en 2 clicks lo tiene todo

https://github.com/easydiffusion/easydiffusion

2 respuestas
Ulmo
#53kraqen:

Super complicado, tienes que verte 40 minutos de tutoriales.

Grande esa búsqueda rápida en Youtube!! un consejo, mírate los 2 primeros minutos del primer video, yo sí lo he hecho, y te sorprenderás como los primeros minutos es explicando las SEMANAS que se ha tirado trasteando cosas, probando cosas que le salían mierda, como está llenos de discusiones sobre las diferentes versiones a instalar, etc.

Pero sí, finalmente ha logrado hacer un video de 24min donde con una versión concreta, un set ya entrenado y unas imágenes que te facilita logra sacar un buen resultado sobre 1 imagen concreta.

Al alcance de cualquiera.

2 respuestas
koalas

Pero la web esa que han usado es publica? Digo yo que por mucho que quieran no pueden cerrarla o si?

1 respuesta
Ulmo
#54Cryoned:

cualquier lego se instala easy difussion o algo similar y en 2 clicks lo tiene todo

En serio, vivís en un mundo totalmente sesgado por vuestro background. ¿Que cualquiera lego se instalada CUDA en 2 clicks y lo hace funcionar? Sí claro, por eso ayer mismo tuve que ayudar a 4 compañeros a corregir el reparto de gastos de splitwise porque ni eso saben usar.

Cualquier persona recién salida del instituto no te sabe ni instalar python. Como para ponerse a generar y entrenar modelos.

Esta gente ni instalan nada, ni entrena nada, ni se miran ningún tutorial. Entran en webs que ya te lo hacen todo y que deberían ser ilegales.

1 respuesta
GoDoPtH

#56 si buscas encuentras muchas que te permiten hacer lo que dice la noticia
promptchan/soulgen que parecen las mas usadas

1 respuesta
kraqen

#55 ¿Y qué que se haya tirado semanas? Al principio la gente necesitaba prompts esquizofrénicos para conseguir cualquier cosa de calidad, el reentreno requería empezar a mezclar modelos y hacer 500 troperias con img2img. El tutorial tiene 7 meses, y tiene un proceso mucho más depurado. Ahora con ControlNet, el img2img está llegando a niveles tan buenos, que no hace falta ni usar Dreambooth, con solo usar ControlNet puedes hacer el mismo efecto desde que lo instalas.

Y como te pone encima Cryoned, desde hace un tiempo ya viene todo en un paquete con cuatro clicks. Ya hay paquetes con todas las herramientas que necesitas. Pero bueno, te he buscado los primeros tutoriales de las herramientas básicas que llevan permitiendo esto desde hace meses.

#54 Sí, como he dicho antes, esto lleva ya meses y cada vez es más sencillo de hacer.

Al final con lo que se hace esto es con capacidades básicas de las herramientas. Igual que no puedes prohibir del Photoshop el clonar, los pinceles el difuminado y demases que te permiten hacer lo que quieras, aquí no puedes prohibir el reentreno, el img2img o el inpainting para coger una imagen y transformarla en minutos.

YokeseS

Pues lo que tienen que hacer es tomar conciencia de no hacer sus fotos publicas, porque ya me dirás como paras algo así.

1 respuesta