📢 Gate广场独家活动: #PUBLIC创作大赛# 正式开启!
参与 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),并在 Gate广场发布你的原创内容,即有机会瓜分 4,000 枚 $PUBLIC 奖励池!
🎨 活动时间
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 参与方式
在 Gate广场发布与 PublicAI (PUBLIC) 或当前 Launchpool 活动相关的原创内容
内容需不少于 100 字(可为分析、教程、创意图文、测评等)
添加话题: #PUBLIC创作大赛#
帖子需附带 Launchpool 参与截图(如质押记录、领取页面等)
🏆 奖励设置(总计 4,000 枚 $PUBLIC)
🥇 一等奖(1名):1,500 $PUBLIC
🥈 二等奖(3名):每人 500 $PUBLIC
🥉 三等奖(5名):每人 200 $PUBLIC
📋 评选标准
内容质量(相关性、清晰度、创意性)
互动热度(点赞、评论)
含有 Launchpool 参与截图的帖子将优先考虑
📄 注意事项
所有内容须为原创,严禁抄袭或虚假互动
获奖用户需完成 Gate广场实名认证
Gate 保留本次活动的最终解释权
将LLM带入互联网计算机
什么是点火里程碑?
Ignition 里程碑是 ICP 路线图中去中心化 AI 轨道的一部分,专注于将罐子连接到链外 LLM。通过此更新,开发者可以在他们的 dapp 中使用 AI,而无需复杂的设置,这要归功于 AI 工作者。
Ignition中的新内容
LLM 库以便捷集成
为了简化将您的气罐连接到LM的过程,我们在互联网计算机上添加了三种语言的库:Motoko、Rust和TypeScript。
这些库使得在你的去中心化应用中快速使用LLM变得简单。例如,这里是一个如何使用几行Motoko代码与Llama 3.1进行交互的示例:
导入 LLM “mo:llm”;
等待 LLM.chat019283746574839201#Llama3_1_8B(.withMessages019283746574839201[ #system_ { content = "你是一个有帮助的助手。";
},
#user_ { content = "太阳有多大?";
},
]).send();
上述示例可以在 ICP Ninja 上找到并进行修改。它展示了一个 canister 如何向一个 LLM 发送查询并获得响应,设置 minimal。
这是另一个示例,展示如何使用工具调用LM。
导入 LLM “mo:llm”;
演员 { public func example() { let response = await LLM.chat(#Llama3_1_8B) .withMessages([ #system_ { content = "你是一个有帮助的助手。"
},
#user { content = "苏黎世的天气怎么样?"
},
])
.withTools([LLM.tool)“get_weather”( .withDescription("获取某个地点的当前天气")
.withParameter( LLM.parameter019283746574839201“location”, #String) .withDescription(“获取天气的位置”( .isRequired)( )
.build() ])
.send(); };
}
您可以在这里找到使用工具的实时演示,以及这里的演示源代码。
) AI 工作者
为了将罐子与链外LM连接,我们构建了一个最低可行产品的AI工作者,这是一个简单的系统,允许罐子从链外LM检索数据。AI工作者处理通信,因此罐子可以实时发送请求并从LM获取响应。
目前,AI 工作者支持 Llama 3.1 8B、Llama 4 Scout 和 Qwen 3 32B。这些选项为开发者提供了选择合适 LLM 以满足其项目需求的灵活性。
这里有一个图表,说明了AI工作者如何在后台被用于将提示传递给链外的LLM提供者。
现实世界的应用案例
开发者已经在使用LLM库来构建创意dapps,例如:
这些例子展示了人工智能工作者如何支持互联网计算机上的一系列应用。
为什么这很重要以及如何开始
Ignition 里程碑使开发者能够轻松地将 LLM 集成到他们的 Internet Computer 项目中,从而启用新的 dapp 类型,如聊天机器人、分析工具和 AI 驱动的 DeFi 应用。通过将 LLM 与 Internet Computer 的功能如 Chain Fusion、HTTPS 外部调用和链上随机性结合,开发者可以构建创造性和强大的解决方案。
准备好尝试了吗?在 ICP Ninja 上探索 LLM 聊天机器人项目,查看实时演示,或深入我们的代码和示例库。
将LLM引入互联网计算机的文章最初发布在Medium上的《互联网计算机评论》中,人们通过突出和回应这个故事继续进行讨论。