[LLMs] Ollama與FLUX的結合
Ollama與FLUX的結合
Flux的出現,帶來不小的震撼,將Ollama配合一起,是不是有另一番風貌呢?
首先要先把Ollama裝好,請參考其官網,運行LLM,我是先用llama3,當然也有數十種LLM可
以使用。
我這邊使用ComfyUI-IF_AI_tools的workflow來修改,剛開始不是很好裝,與Ollama不是連
結很順利,重開好幾次ComfyUI才連上,port要改成11434,部份的節點換成Flux,模型我使
用flux1-schnell-fp8,你也可使用其他Flux的模型,schnell模型CFG 設1,steps只要4,
速度會比較快一些。
我用女生包包為例,「女生的手提包,外觀用Piet Mondrian的畫風來裝飾, 精品攝影, 典
雅」,直接用中文,這樣是不是跟bing很像呢,但不用擔心像bing會被封鎖。
也可以用在其他項目,如抽象畫、汽車、鞋類、建築等應用,有需要可參考修改的workflow
https://github.com/2BED43D/Lai_iART/blob/workflow/Ollama_IF_AI_tools.json
https://i.meee.com.tw/rnOgdkS.png
https://i.meee.com.tw/E8o3D2c.png
https://i.meee.com.tw/E9xMNcQ.png
至於Flux的效果每個人看法不同,我的感想是,如果是人像我還是會繼續用SDXL,但其他物
品Flux則相當不錯的。
Ollama與FLUX都有些吃資源,vram能用16g以上是最好,我的3090跑起來都有些喘。
感謝
ComfyUI-IF_AI_tools https://github.com/if-ai/ComfyUI-IF_AI_tools
Ollama
Meta llama3
Flux https://github.com/black-forest-labs/flux
#ollama #FLUX #llama3 #ComfyUI
----
Sent from BePTT
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 125.231.23.107 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/AI_Art/M.1723863486.A.095.html