FLUX提示词五合一(炉石&游戏王&塔罗牌&海报&漫画)一键生成 by LLM Party
5.0
0 reviewsDescription
#官方文档链接
https://dcnsxxvm4zeq.feishu.cn/wiki/XOnXwC2btiw8YDkyFQsctFAEnHf?fromScene=spaceOverview
--------------------------------------------------------------------------------------------------------------------
#工作流简介:
- 该工作流是通过 ComfyUI LLM Party 插件中调用【flux提示词生成面具】节点自动生成flux提示词。目前预设的模板有五套,分别是[海报Poster]、[炉石传说HearthStone]、[游戏王Yu-Gi-Oh]、[塔罗牌tarot]和[漫画manga]。可以根据自己的爱好和使用场景选择不同的提示词生成模版。
--------------------------------------------------------------------------------------------------------------------
#【flux提示词生成面具】参数详解:
- theme:填写需要生成的主题内容;
- style:填写希望生成的风格。
- strength:数值越大元素越多,数值区间为0~10(需要为整数/int字符)。注:漫画的strength和格子数相关,strength数值会影响格子数。
--------------------------------------------------------------------------------------------------------------------
根据测试目前闭源模型的效果和性比价最高的是 gpt-4o-mini 。如果只有开源LLM。推荐使用 gemma2 ,根据测试参数 gemma2 最能遵循提示词工程。但是总体的效果还是弱于 gpt-4o-mini 。
--------------------------------------------------------------------------------------------------------------------
以下是 LLM Party 配置的步骤,如果不懂的问题可以移至文末的官方交流群(注:ComfyUI LLM Party的API或者本地配置都是在ComfyUI的界面中完成,不需要在配置文件中进行配置)。
- Step 1:base_url:参考以下[api_key合辑]中的填写规范;api_key:不同的LLM的api_key不同,填写方式同参照[API_KEYS]
- Step 2:models_name:输入你需要调用的大模型名称,如:qwen2:latest。
--------------------------------------------------------------------------------------------------------------------
#注:
- 可以用ollama来管理你的模型;
- 1)在api_key填入ollama,base_url填入http://127.0.0.1:11434/v1/,在model_name填入你的模型名称,例如:llama3、qwen2:latest;2)或者直接开启 is_ollama 属性,这样你就是只需要填入 model_name 就能使用ollama了。
- 以ollama的方式加载的部分模型并没有工具调用功能(例如:llama3),当你连入tool后会报错,这时你可以将LLM_api节点上的 [is_tool_in_sys_prompt] 属性打开,工具信息将以系统提示词的方式输入LLM,让LLM临时获得工具调用能力。
--------------------------------------------------------------------------------------------------------------------
- [API_KEYS合辑]
- [API_KEYS]
- base_url = https://api.openai.com/v1/
- openai_api_key = sk-XXXXX
- [deepseek-chat]
- base_url=https://api.deepseek.com/v1/
- api_key=
- [glm-4]
- base_url=https://open.bigmodel.cn/api/paas/v4/
- api_key=
- [qwen-max]
- base_url=https://dashscope.aliyuncs.com/compatible-mode/v1/
- api_key=
- [moonshot-v1-8k]
- base_url=https://api.moonshot.cn/v1/
- api_key=
- [general]
- base_url=https://spark-api-open.xf-yun.com/v1/
- api_key=
- [doubao_YOUR_ENDPOINT_ID]
- base_url=https://ark.cn-beijing.volces.com/api/v3/
- api_key=
- [your_ollama_model_name]
- base_url=http://127.0.0.1:11434/v1/
- api_key=ollama
--------------------------------------------------------------------------------------------------------------------
#写在最后:
- LLM_Party正在用心经营一片AI时代的后花园,我们希望能够在AI时代下成为众多参与者的一员,我们从开源社区中走来,也希望回到社区中去。
- 欢迎大家来到我们用心经营的后花园。如果我们的项目能够帮助到大家,麻烦大家在Github上帮我们点一下Star:
- github项目地址:https://github.com/heshengtao/comfyui_LLM_party
- openart:https://openart.ai/workflows/profile/comfyui_llm_party?tab=workflows&sort=latest
- LibLib:https://www.liblib.art/userpage/4378612c5b3341c79c0deab3101aeabb/publish/workflow
- 哔哩哔哩:https://space.bilibili.com/26978344?spm_id_from=333.337.0.0
- YouTube:https://www.youtube.com/@comfyui-LLM-party
- discord:https://discord.com/invite/gxrQAYy6
- QQ交流群:931057213
- 微信交流群:Choo-Yong(添加小助理微信,统一通过后会添加至交流群)
Discussion
(No comments yet)
Loading...
Reviews
No reviews yet
Versions (2)
- latest (3 months ago)
- v20240815-172413
Node Details
Primitive Nodes (4)
CheckpointLoaderNF4
FluxSamplerParams+
Note
flux_persona
Custom Nodes (10)
ComfyUI
- PreviewImage
- DualCLIPLoader
- VAEDecode
- SDXLEmptyLatentSizePicker+
- show_text_party
- LLM
- LLM_api_loader
- CLIPTextEncode_party
Model Details
Checkpoints (1)
12-FLUX模型/flux1-dev-bnb-nf4-v2.safetensors
LoRAs (0)