My stuff

  • My Workflows

  • Liked Workflows

  • Following Workflows

Go to OpenArt main site
Upload workflow

LLM Party for FLUX 炉石传说抽卡

5.0

0 reviews
23
3.9K
743
7
Description

#官方文档链接

https://dcnsxxvm4zeq.feishu.cn/wiki/XOnXwC2btiw8YDkyFQsctFAEnHf?fromScene=spaceOverview

--------------------------------------------------------------------------------------------------------------------

#工作流介绍:

该工作流是通过在LLM Party插件中使用提示词工程来完成炉石传说抽卡自由。根据测试目前闭源模型的效果和性比价最高的是gpt-4o-mini。如果只有开源LLM。推荐使用gemma2,根据测试参数gemma2最能遵循提示词工程。但是总体的效果还是弱于gpt-4o-mini。

--------------------------------------------------------------------------------------------------------------------

以下是LLM Party配置的步骤,如果不懂的问题可以移至文末的官方交流群。

#Step 1:

·base_url:参考以下[api_key合辑]中的填写规范;

·api_hey:不同的LLM的api_key不同,填写方式同参照[API_KEYS]


##Step 2:

·models_name:输入你需要调用的大模型名称,如:qwen2:latest。

--------------------------------------------------------------------------------------------------------------------

#注:

·可以用[ollama](https://github.com/ollama/ollama)来管理你的模型;

·在api_key填入ollama,base_url填入http://127.0.0.1:11434/v1,在model_name填入你的模型名称,例如:llama3、qwen2:latest;或者直接开启is_ollama属性,这样你就是只需要填入model_name就能使用ollama了。

·以ollama的方式加载的部分模型并没有工具调用功能(例如:llama3),当你连入tool后会报错,这时你可以将LLM_api节点上的·is_tool_in_sys_prompt属性打开,工具信息将以系统提示词的方式输入LLM,让LLM临时获得工具调用能力。

--------------------------------------------------------------------------------------------------------------------

#[api_key合辑]

[API_KEYS]

base_url = https://api.openai.com/v1/

openai_api_key = sk-XXXXX


[deepseek-chat]

base_url=https://api.deepseek.com/v1/

api_key=


[glm-4]

base_url=https://open.bigmodel.cn/api/paas/v4/

api_key=


[qwen-max]

base_url=https://dashscope.aliyuncs.com/compatible-mode/v1/

api_key=


[moonshot-v1-8k]

base_url=https://api.moonshot.cn/v1/

api_key=


[general]

base_url=https://spark-api-open.xf-yun.com/v1/

api_key=


[doubao_YOUR_ENDPOINT_ID]

base_url=https://ark.cn-beijing.volces.com/api/v3/

api_key=


[your_ollama_model_name]

base_url=http://127.0.0.1:11434/v1/

api_key=ollama

--------------------------------------------------------------------------------------------------------------------

#写在最后:

- LLM_Party正在用心经营一片AI时代的后花园,我们希望能够在AI时代下成为众多参与者的一员,我们从开源社区中走来,也希望回到社区中去。

- 欢迎大家来到我们用心经营的后花园。如果我们的项目能够帮助到大家,麻烦大家在Github上帮我点一下Star:

- github项目地址:https://github.com/heshengtao/comfyui_LLM_party

- openart:https://openart.ai/workflows/profile/comfyui_llm_party?tab=workflows&sort=latest

- LibLib:https://www.liblib.art/userpage/4378612c5b3341c79c0deab3101aeabb/publish/workflow

- 哔哩哔哩:https://space.bilibili.com/26978344?spm_id_from=333.337.0.0

- YouTube:https://www.youtube.com/@comfyui-LLM-party

- discord:https://discord.com/invite/gxrQAYy6

- QQ交流群:931057213

- 微信交流群:Choo-Yong(添加小助理微信,统一通过后会添加至交流群)

Discussion

(No comments yet)

Loading...

Author

25
11.6K
226
54.0K

No reviews yet

  • - latest (a year ago)

Primitive Nodes (4)

CheckpointLoaderNF4 (1)

FluxSamplerParams+ (1)

Note (1)

TextEncodeForSamplerParams+ (1)

Custom Nodes (6)

ComfyUI

  • - PreviewImage (1)

  • - VAEDecode (1)

ComfyUI Essentials

  • - SDXLEmptyLatentSizePicker+ (1)

  • - LLM (1)

  • - load_persona (1)

  • - LLM_api_loader (1)

Checkpoints (1)

12-FLUX模型/flux1-dev-bnb-nf4.safetensors

LoRAs (0)