#34 ningún puesto es seguro en ninguna empresa de ningún lugar del mundo. Por definición.
La IA no se puede regular. Esa es la verdad. Yo tengo en mi PC descargado stable diffussion, yo controlo el prompt y no está filtrado por nadie. Una IA entrenada no deja de ser un fichero con números. Eso no lo puedes regular porque no lo puedes controlar.
Hoy en día. En 2023 puedes ilegalizar hacer las IAs open source porque yo no tengo la capacidad ni tecnológica ni financiera de entrenar una IA como stable diffussion y quien tiene capacidad de entrenarlas es un puñado de empresas
Pero... ¿Y cuando yo tenga la capacidad financiera o tecnológica de hacerlo yo mismo? Al ritmo que la computación se hace más barata, especialmente por estas cosas no es descabellado pensar que en 10 años yo podré hacer un esfuerzo financiero y entrenar mi propia IA en AWS. Entonces le meterán regulación a Amazon, y 10 años después NVIDIA habrá avanzado tanto que yo podré entrenar una IA en mi ordenador, o con 3 gráficas en SLI.
¿Qué van a regular, el contenido? Si hoy ya es complicado diferenciar muchas fotos, en 2 años va a ser imposible. ¿Regular el uso de las imágenes para entrenamiento? Aún asumiendo que puedas identificar el contenido y que tengas todo el output, como sistema determinista es tan grande que, primero hacer la ingeniería inversa que te llevaría hasta la foto de entrenamiento es inviable, pero aunque eso ocurra, no puedes deducir todo el input con un output, matemáticamente hablando.
Intentar regular esto es poner puertas al campo. Retrasar lo inevitable.