IA: Programas y Herramientas

Niffelheim

#801 #800 Creo que estáis mezclando cosas.

Hay 3 modelos:

Pro. De este no voy a hablar, es el de pago.

Dev. El checkpoint base ocupa 24gb https://huggingface.co/black-forest-labs/FLUX.1-dev Es el más parecido a la versión Pro. Hay versiones que ocupan menos como la del creador de Forge https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4/tree/main pero con menos precisión (NF4).

Schnell (En Alemán "rápido". El checkpoint base también ocupa 24gb https://huggingface.co/black-forest-labs/FLUX.1-schnell. Está pensado para funcionar en 1-4 steps como los Hyper-SDXL etc. También hay versiones que ocupan menos a costa de precisión (NF4) https://huggingface.co/silveroxides/flux1-nf4-weights/tree/main.

Luego de esas versiones también podéis ver la palabra "BNB" , esto quiere decir que lo han optimizado para funcionar en 8 y 4 bits.
La precisión de más a menos preciso va en este orden FP32 -> FP16 -> FP8 ->NF4.

Si alguien quiere entrenar LoRA en Flux:
https://github.com/bghira/SimpleTuner en Linux
https://github.com/ostris/ai-toolkit en Windows
Y ya están en proceso de meterlo en el repo de https://github.com/bmaltais/kohya_ss

2 respuestas
dvneil

#811 no es que mezclase, simplemente no entre al detalle, pero es como digo

igual que los modelos lighting, o sucedaneos sdxl que corren en 4 steps, tienen menos calidad de imagen que los normales que van a 20-35 steps.
le pasa igual al schnell vs dev, yo mismo puse un video atrás demostrandolo.

la calidad del dev es superior , no satura, añade mas textura y detalle realista.

luego obviamente presupongo que tanto el modelo que saco el dev de forge, como los bnb y nf4 tendran menos calidad.

Zenrox

#811

Es precisamente lo que he dicho xD, que el pro es de pago, el dev es el medio y el schenell el basico

Solo que para que funcionen en forge, el dev de forge ha sacado unos modelos optimizados que son un poco peores pero pueden funcionar con 4-8GB de vram

Y es obvio que si el modelo funciona con 2-4 pasos, la calidad va a ser muuy inferior, pero bueno, si la gente con pc patata quiere probar cosas, pues ahi lo tienen

PD:

Que por cierto acabo de ver que ha sacado la version V2 del modelo Dev, segun dice tiene mas precision y es mas rapido a cambio de 500mg mas de capacidad, nice

1 1 respuesta
Rinkes

Para los que quereis vuesta LLM pero facil, no empeceis a comerme la polla aun:
https://ollama.com

1 respuesta
frekaice

#814 tambien tienes https://lmstudio.ai/ :slight_smile:

1 1 respuesta
Rinkes

#815 Va venga, te la como yo a ti

DeTeX

#813 gracias, funciona perfecto en una 2070 con 8Gb de vram y 16Gb de ram (1min 23secs por imagen)

1
fvksys

Algo decente para texto a audio? Es para un video de instrucciones de instalación/configuracion de una aplicación.

1 respuesta
_0-0_

#818 En este video usa ELEVANLABS. Yo no lo he probado

1
Zenrox

La que se esta liando en X (twitter) con el grok 2 (su ia), le han implementado flux sin censura y la gente esta creando autenticas barbaridades

1 respuesta
eondev

#820 pasa enlaces xD

1 respuesta
Zenrox

#821

Ve a twitter y pon grok 2 images en el buscador, hay demasiadas xD

Y tampoco se si podria pasar muchas por aqui

1 respuesta
eondev

#822 no me salen sin censura solo imagenes normales xD

1 respuesta
Sk8eR

estoy acabando una app que dado un texto, te lo corrije en plan grammarly pero en cualquier idioma... alguien vio algun otra así? hice un mini reserch y hay mil que son en plan chat, pero no en plan quick tool...

1 respuesta
eondev

#824 entiendo que la gente usa gpts para esos menesteres. Pero integrado en una app puede estar bien, why not

1 1 respuesta
Zenrox

#823

A ver sin censura no me refieria a unas tetas, mas bien a temas violentos, como trump conduciendo un avion hacia las torres gemelas,con la cabeza cortada, o mario bros con una escopeta matando a gente xD

1 respuesta
Sk8eR

#825 la putada es que el clipboard desde hace 2/3 años esta capadisimo, mi idea era solo darle a copiar te mejoraba el texto xD pero sera un poquito mas engorrosa pero guay... xd

cabron

#826

eso se puede hacer desde hace tiempo con varios modelos, no tienen porque estar hechos con flux

En su anuncio no pone nada de que estén usando un modelo sin censurar:

In collaboration with Black Forest Labs, we are experimenting with their FLUX.1 model to expand Grok’s capabilities on 𝕏.

1 respuesta
Zenrox

#828

Bro, informate un poco, porque estas muy perdido, grok2 ha implementado un generador de imagenes dentro de twitter que usa flux y la gente esta creando cosas desde la propia twitter

https://x.ai/blog/grok-2

Una cosa es que tu te bajes el juggernautXL y un lora de trump y le pongas con 3 pistolas y otra muy distinta es que desde una plataforma publica como es twitter te den la posibilidad de crear imagenes de este tipo sin censura, hay una gran diferencia

Que todo esto te lo hago yo en 10 minutos con SD, la cosa esque ahora esta al alcance de cualquiera simplemente poniendo 2 frases, y la calidad teniendo en cuenta que acaba de salir, cuidado

PD: Cuando hablo de "sin censura" me refiero a que no han capado el modelo para hacer segun que cosas, han pillado el mismo, el que te crea imagenes de famosos y menos desnudos que necesitas loras y demas, puedes hacer lo que quieras,

dalle/midjourney y todos estos modelos privados estan "capados" para segun que cosas (gore/desnudos), aunque el modelo sea perfectamente capaz de hacer ese tipo de imagenes, a eso me referia

1 respuesta
cabron

#829

pero que dices flipao.

me dices que estoy perdido para copiarme el mismo texto que te he puesto yo? que tiene que ver que puedas generar imágenes directamente en twitter? en ningún momento he dicho nada de eso, lo que te he dicho es que no es el modelo sin censurar, es el modelo de flux normal y corriente de hecho acabo de generar la misma imagen sin usar twitter usando directamente el api de flux

Es el mismo puto modelo, no es uno sin censurar, no vayas a dar lecciones si no sabes de que hablas

1 respuesta
Zenrox

#830

#829Zenrox:

PD: Cuando hablo de "sin censura" me refiero a que no han capado el modelo para hacer segun que cosas, han pillado el mismo, el que te crea imagenes de famosos y menos desnudos que necesitas loras y demas, puedes hacer lo que quieras,

dalle/midjourney y todos estos modelos privados estan "capados" para segun que cosas (gore/desnudos), aunque el modelo sea perfectamente capaz de hacer ese tipo de imagenes, a eso me referia

1 respuesta
cabron

#831

lo primero ese texto no estaba en el post original, lo has escrito mientas yo respondida, y dicho eso, el modelo público de flux ya es así, no tiene sentido decir "el modelo de flux sin censurar". La única diferencia que hay es que desde twitter no tienes que saber hacer una petición a un api (que tampoco es haya que ser ingeniero aeroespacial para hacerlo).

El modelo de flux sí parece estar censurado respecto a desnudos, cuando veas porno generado con flux podemos hablar del modelo sin censurar.

1 respuesta
Zenrox

#832

Dejemoslo en que me ha faltado una letra y quise decir "modelo flux sin cenruraR", creo que ya ha quedado claro

Respecto a lo de los desnudos, el modelo base no es capaz de hacerlos bien, pero se pueden hacer, como ya he dicho, hacen falta loras, pero poder se puede sin problema, en twitter dudo que eso llegue a pasar.

NSFW
1
allmy

La calidad de las imágenes de Grok está muy bien.
Es midjourney hace 1 año pero sin tanta censura.

ESL_Kaiser

https://www.facebook.com/reel/1734900023709575 he visto esto que me ha parecido tremendamente útil

una grabadora integrada con un modelo chatgpt que te resume y te esquematiza las conversaciones directamente que grabes con ella

covaga

alguna web para traducir pdf y que respete la posicion de las imagenes?

Rinkes

Alguien se ha pillado algún tipo de TPU de Coral o similar que pueda vender sus beneficios?

Lovexperienc

hola amigxs , estoy buscando una ia/web para reescalar una imagen para tenerla en la mejor calidad posible
me hice una sesion de fotos con mi gata y quería enmarcar unas fotos, pero si las puedo tener en la mejor calidad mejor que mejor, muchas gracias <3

2 respuestas
covaga

#838 usa el colab de focuus https://colab.research.google.com/github/lllyasviel/Fooocus/blob/main/fooocus_colab.ipynb

2 respuestas
Lovexperienc

#839 no tengo ni idea de como utilizar eso la verdad, seguiré buscando igualmente , gracias!

1 respuesta