当今的AI行业由于集中化面临重大挑战,主要进展通常掌握在少数大型公司手中。这引发了对数据隐私、垄断行为以及获取前沿技术能力有限的担忧。此外,尽管大型语言模型(LLMs)如GPT-3具备强大能力,但其依赖性过高也带来了高计算成本、环境影响以及训练数据中的潜在偏见等问题。这些模型需要大量的数据和资源,使得它们仅对资金充足的组织可用。
Assisterr 通过引入小型语言模型(SLMs)并推动社区拥有的AI开发方法来应对这些挑战。SLMs 更加高效,所需的计算能力和数据更少,同时仍能保持卓越的性能,从而使AI技术变得更加可获取和可持续。此外,Assisterr 的社区拥有模型和AI智能体让用户能够参与和受益于AI的进步,促进创新与包容性,确保AI的益处能够更广泛地惠及整个社会。
来源:Assisterr 网站
Assisterr AI 是一个去中心化的AI平台,旨在通过利用小型语言模型(SLMs)和社区拥有的AI智能体来实现人工智能的普惠化。其主要目标是提供一种更高效、更可获取且更可持续的传统AI模型替代方案,以应对大型语言模型(LLMs)的局限性,并推动协作型AI生态系统的发展。
大型语言模型(LLMs)如 GPT-3 和 BERT 是基于大量文本数据训练的AI模型,能够理解和生成类似人类语言。它们可以执行各种任务,如文本补全、翻译和摘要生成。然而,LLMs 存在一些显著的缺点:
小型语言模型(SLMs)与 LLMs 概念类似,但设计上更注重准确性、专用性和高效性。SLMs 通过专注于特定任务和数据集,为细分应用场景提供更优的性能,尤其适合专业化的使用案例。借助定制化数据集和面向特定业务需求的训练,SLMs 能以更低成本提供卓越的性能和情境适应能力。这也为开源 SLM 的构建提供了动力,过去一些低成本项目开发的 SLM 已在准确性上接近成熟的 LLMs,成本却远低于后者。
小型语言模型(SLMs)是 Assisterr 技术的核心。与大型语言模型(LLMs)不同,SLMs 设计上更加高效和专用。它们专注于特定任务和数据集,因此能够为细分应用提供卓越的性能。这种专门化使得 SLMs 更加可获取且可持续,因为它们需要的计算能力和数据更少。小型语言模型(SLMs)是 Assisterr 技术的核心。与大型语言模型(LLMs)不同,SLMs 设计上更加高效和专用。它们专注于特定任务和数据集,因此能够为细分应用提供卓越的性能。这种专门化使得 SLMs 更加可获取且可持续,因为它们需要的计算能力和数据更少。小型语言模型(SLMs)是 Assisterr 技术的核心。与大型语言模型(LLMs)不同,SLMs 设计上更加高效和专用。它们专注于特定任务和数据集,因此能够为细分应用提供卓越的性能。这种专门化使得 SLMs 更加可获取且可持续,因为它们需要的计算能力和数据更少。
为了解决基于 LLM 的智能体的局限性,出现了多个小型语言模型(SLMs)在协作型智能体框架中工作的先进方法。在从 SLM 集合体开发 AI 智能体时,有两个核心方法被广泛采用:专家混合(Mixtures of Experts, MoE)和智能体混合(Mixtures of Agents, MoA)。
专家混合(MoE)
来源:Assisterr Litepaper
当现代小型语言模型(SLM)结合在 MoE 集合中时,可以在不失去功能性问题解决能力的情况下,提升学习的灵活性。集合学习能够将多个较小模型的推理能力结合在一起,每个模型专注于不同的相关背景,从而解决复杂问题。这种组合生成了混合的理解,允许AI深入挖掘。专家层本身可以由 MoE 组成,创建分层结构,进一步缓解上下文复杂性并提升问题解决能力。MoE 通常使用稀疏门控层,动态选择多个并行网络中的最佳响应,以便给出最合适的答案。为了实现更灵活的响应,单个专家可以针对代码生成、翻译或情感分析进行微调。更复杂的 MoE 架构可能包含多个 MoE 层,并与其他组件结合使用。像任何典型的语言模型架构一样,MoE 的门控层操作基于语义标记,并需要进行训练。
智能体混合(MoA)
当小型语言模型(SLMs)组装成 MoA 架构时,可以增强多样化推理集合的选择性,使得AI能够执行任务时采用所需的方法论,从而精准地执行任务。智能体模型被组装成一个联盟,分层执行协议,提升复杂任务的效率和问题解决能力。因此,AI 可以在多领域场景下工作。智能体团队可以按顺序工作,迭代地改进先前的结果。MoA 在性能上往往明显优于更大的模型,包括 GPT-4 Omni 在 AlpacaEval 2.0 上的 57.5% 准确率,即使在开源模型中也有如此表现。智能体混合(MoA)是在模型输出层面操作,而非语义标记层面。它没有门控层,而是并行地将文本提示转发给所有智能体。MoA 的输出也不是通过加法和归一化进行汇总,而是通过连接并与合成与聚合提示一起结合,再传递给另一个模型以生成最终输出。因此,模型被分为“提出者”(计算不同输出)和“聚合者”(整合结果)。与 MoE 一样,多个这样的层可以进行组合。缺乏门控层使得这一方法在面对复杂任务时更加灵活和适应性强。
DeAI(去中心化AI)经济是 Assisterr 平台的一个基本组成部分。它利用区块链技术创建了一个去中心化的AI模型和数据市场。这个经济体系激励数据共享与协作,确保贡献者能够公平地获得回报。DeAI 经济的关键组成部分包括:
AssisterrAI 提供了一个统一的基础设施管道,用于创建、代币化和分发小型语言模型(SLMs),并通过这一方式激励所有社区贡献者的参与。AI 实验室允许用户在自己知识领域内为模型做出贡献,成为AI的共同创作者和共同拥有者。这种方法确保AI临时工作者不仅能够获得一次性、交易性的报酬,还能捕捉更广泛的市场价值,保障更好的未来,使人们成为AI的受益者,而非进步与自动化的受害者。
为了访问平台,用户需要连接一个基于浏览器的Solana钱包,以及他们的X个人资料和Discord账户。然后,他们可以通过Assisterr用户界面的AI实验室标签来创建模型,界面提供了一个简单的表单,用于指定关键参数、提示模板和模型元数据。用户可以直接上传数据,这些数据将通过检索增强生成(RAG)嵌入模型,后续还可以通过微调来优化。一旦模型创建完成,可以通过SLM商店将其公开。在未来,AI实验室将采用模块化、多模型范式,并结合智能体混合架构和增强检索策略。
Assisterr 的贡献者在AI模型的创建过程中每个步骤都能获得奖励,从数据贡献、模型创建到验证和审查。这个收入共享机制是通过SLM代币化模块实现的。AI实验室有效地将业务用例与所需的数据和专业知识连接起来。一旦模型出现在Assisterr界面的SLM商店标签中,任何用户都可以通过聊天机器人界面查询该模型。目前,机器人在Web3生态系统、医疗健康、软件开发和金融等多个领域提供帮助。
SLM商店中的每个模型都配有一个以Assisterr原生代币计价的金库,每次查询时都会从相应用户的余额中补充。查询可以通过连接Solana钱包的WebUI或API进行,从而使SLM商店中的模型可以通过其他应用程序访问。贡献者可以创建SLM,将它们组合成智能体,并通过零代码界面部署,从而提供快速的市场进入周期和快速的创新周期。这解决了独立模型创作者和开发者在分发和盈利化过程中面临的挑战。
通过“贡献与赚取”标签,用户可以通过满足数据请求和验证性能指标,参与对SLM商店中现有模型的迭代改进,并获得管理代币(MTs)或原生Assisterr代币。这一同行评审过程确保了模型创建的不断进化,并随着时间的推移提高了吞吐量。结合智能体混合(MoA)等功能,这使得累积进展和持续的自下而上的调整成为可能。SLM的模块化和专用性使其能够快速集成到现有工作流程中。未来,企业或个人将能够描述他们的问题,Assisterr的服务将涉及相关的SLM/智能体池来找到解决方案。
原生Assisterr代币是AssisterrAI生态系统运营的载体。它会在SLM开发过程的每个阶段,通过验证履行智能合约协议的行动进行交易。通过利用该代币,参与者可以与Assisterr生态系统的各项功能进行互动,例如访问产品、支付费用,以及为SLM的创建、管理和盈利化做出贡献。
去中心化金融(DeFi)AI智能体是Web3领域的重大创新。超越通用推荐系统,专门的AI在安全、许可的约束下运行,能够更好地优化和自动化金融组合。为快速交易媒体(如Solana DeFi协议)创建的智能体SLMs可以增强借贷、永续交易和质押等功能。这些智能体通过SLM集合和现代的智能体混合(MoA)联盟提供更好的数据策划、多模态推理和深度功能分析。
为复杂交易场景量身定制的交易智能体能够分析钱包聚类和价格走势,在动荡的DeFi市场和传统金融(TradFi)中都具有极大的实用性。基于SLM的MoA在数据参考交易策略中特别有效,其中执行媒介和方法至关重要。这些智能体通过利用先进算法和实时数据来提高交易效率和盈利能力。
具有先进学习和分析能力的自主聊天智能体在学术、社交和专业领域具有重要价值。它们可以作为各种服务的支持代理,连接社交网络和IT应用。通过加入智能体功能,这些对话支持模型可以充当联络人,根据用户反馈实施功能并提供可操作的支持。
SLMs可以创建基于文本、音频或视频的代理,生成用于深度互动和公众任务的虚拟形象。这些虚拟形象可以处理复杂的功能,如3D虚拟形象、自动文本到视频生成以及社交平台上的直播集成。基于SLM的MoA可以增强下一代多模态互动,使面向公众的虚拟形象更加互动和高效。
在AssisterrAI平台上推出的专门Web3开发者关系(DevRel)概念验证证明了强大的市场适应性。健全的DevRel机制对于吸引开发者并在采用技术栈时提供全面支持至关重要。然而,这也伴随着巨大的成本,DevRel岗位的年薪从90,000美元到200,000美元不等。许多开发者支持请求是可预测的,可以通过自动化来提高DevRel效率,借助SLMs的有针对性使用来降低成本,同时保持对开发者的高质量支持。
1.访问 Assisterr 网站:前往 Assisterr 的官方网站并点击“打开应用”。
2.连接钱包:点击“选择钱包”按钮并连接你的浏览器基础的Solana钱包。这个钱包将用于交易和访问平台上的各种功能。
3.链接社交账户:连接你的X个人资料和Discord账户。这些连接有助于验证你的身份,并将你的社交存在与Assisterr生态系统整合。
4.完成注册:按照屏幕上的指示完成注册过程。注册完成后,你就可以开始探索平台及其功能。
1.导航到 SLM 商店:登录后,前往 Assisterr 界面上的 SLM 商店标签。.
2.浏览可用模型:浏览商店中各种可用的小型语言模型(SLMs)。每个模型都是为特定任务和行业设计的,例如 Web3 生态系统、医疗保健、软件开发和金融。
3.查询模型:你可以通过聊天机器人界面查询任何模型。只需选择你感兴趣的模型并开始与其互动。查询可以通过连接的 Solana 钱包在 Web 界面中进行,也可以通过 API 与其他应用集成进行查询。
1.访问 AI 实验室:前往 Assisterr 界面上的 AI 实验室标签。
2.指定模型参数:填写配置表单,指定模型的关键参数、提示模板和元数据。这包括定义模型的名称、标识、目的描述、类别、封面图像、对话开场白和数据集。你还可以通过使用 AI 助手来加快这个过程。
3.上传数据:直接上传将通过检索增强生成(RAG)和微调嵌入模型的数据。这些数据有助于训练模型执行预定任务。
4.发布你的 SLM:配置完成后,点击发布按钮。你的模型将被生成,你可以选择将其发布到 SLM 商店或保持私密。将其发布到公开后,其他用户可以访问并查询你的模型。
Assisterr 是一家位于剑桥的 AI 基础设施初创公司,成功完成了 170 万美元的种子前融资轮。此次投资轮吸引了多个知名的 Web3 风投基金参与,包括 Web3.com Ventures、Moonhill Capital、Contango、Outlier Ventures、Decasonic、Zephyrus Capital、Wise3 Ventures、Saxon、GFI Ventures、X Ventures、Koyamaki、Lucid Drakes Ventures,以及多位知名天使投资人,如 Michael Heinrich、Mark Rydon、Nader Dabit、Anthony Lesoismier-Geniaux 和 Ethan Francis。这些资金对于 Assisterr 建设基础设施和推出平台起到了至关重要的作用。
自平台启动以来,Assisterr 已取得显著进展,包括吸引了 15 万注册用户,并为领先的 Web3 协议如 Solana、Optimism、0g.ai 和 NEAR 推出了超过 60 个小型语言模型(SLMs)。此外,Assisterr 还因赢得多个全球黑客松比赛并参与 Google 的 AI 初创公司计划而获得认可,获得了 35 万美元的资金支持,以支持其 GPU、CPU 和云基础设施的需求。
Assisterr 有一个明确的未来发展和增长路线图。主要的里程碑包括:
AI 实验室(2024 年第四季度)
网络增长(2025 年上半年)
SLM-智能体混合(2025 年下半年)
Assisterr 正在通过利用小型语言模型(SLMs)和创新的经济模型,开创一个新的去中心化、社区拥有的 AI 时代。通过解决大型语言模型(LLMs)的局限性并提倡协作方式,Assisterr 正在使 AI 技术变得更加可访问、高效和可持续。平台的综合生态系统,包括 AI 实验室、SLM 商店和协作元素,赋予用户创建、分享和货币化 AI 模型的能力。
当今的AI行业由于集中化面临重大挑战,主要进展通常掌握在少数大型公司手中。这引发了对数据隐私、垄断行为以及获取前沿技术能力有限的担忧。此外,尽管大型语言模型(LLMs)如GPT-3具备强大能力,但其依赖性过高也带来了高计算成本、环境影响以及训练数据中的潜在偏见等问题。这些模型需要大量的数据和资源,使得它们仅对资金充足的组织可用。
Assisterr 通过引入小型语言模型(SLMs)并推动社区拥有的AI开发方法来应对这些挑战。SLMs 更加高效,所需的计算能力和数据更少,同时仍能保持卓越的性能,从而使AI技术变得更加可获取和可持续。此外,Assisterr 的社区拥有模型和AI智能体让用户能够参与和受益于AI的进步,促进创新与包容性,确保AI的益处能够更广泛地惠及整个社会。
来源:Assisterr 网站
Assisterr AI 是一个去中心化的AI平台,旨在通过利用小型语言模型(SLMs)和社区拥有的AI智能体来实现人工智能的普惠化。其主要目标是提供一种更高效、更可获取且更可持续的传统AI模型替代方案,以应对大型语言模型(LLMs)的局限性,并推动协作型AI生态系统的发展。
大型语言模型(LLMs)如 GPT-3 和 BERT 是基于大量文本数据训练的AI模型,能够理解和生成类似人类语言。它们可以执行各种任务,如文本补全、翻译和摘要生成。然而,LLMs 存在一些显著的缺点:
小型语言模型(SLMs)与 LLMs 概念类似,但设计上更注重准确性、专用性和高效性。SLMs 通过专注于特定任务和数据集,为细分应用场景提供更优的性能,尤其适合专业化的使用案例。借助定制化数据集和面向特定业务需求的训练,SLMs 能以更低成本提供卓越的性能和情境适应能力。这也为开源 SLM 的构建提供了动力,过去一些低成本项目开发的 SLM 已在准确性上接近成熟的 LLMs,成本却远低于后者。
小型语言模型(SLMs)是 Assisterr 技术的核心。与大型语言模型(LLMs)不同,SLMs 设计上更加高效和专用。它们专注于特定任务和数据集,因此能够为细分应用提供卓越的性能。这种专门化使得 SLMs 更加可获取且可持续,因为它们需要的计算能力和数据更少。小型语言模型(SLMs)是 Assisterr 技术的核心。与大型语言模型(LLMs)不同,SLMs 设计上更加高效和专用。它们专注于特定任务和数据集,因此能够为细分应用提供卓越的性能。这种专门化使得 SLMs 更加可获取且可持续,因为它们需要的计算能力和数据更少。小型语言模型(SLMs)是 Assisterr 技术的核心。与大型语言模型(LLMs)不同,SLMs 设计上更加高效和专用。它们专注于特定任务和数据集,因此能够为细分应用提供卓越的性能。这种专门化使得 SLMs 更加可获取且可持续,因为它们需要的计算能力和数据更少。
为了解决基于 LLM 的智能体的局限性,出现了多个小型语言模型(SLMs)在协作型智能体框架中工作的先进方法。在从 SLM 集合体开发 AI 智能体时,有两个核心方法被广泛采用:专家混合(Mixtures of Experts, MoE)和智能体混合(Mixtures of Agents, MoA)。
专家混合(MoE)
来源:Assisterr Litepaper
当现代小型语言模型(SLM)结合在 MoE 集合中时,可以在不失去功能性问题解决能力的情况下,提升学习的灵活性。集合学习能够将多个较小模型的推理能力结合在一起,每个模型专注于不同的相关背景,从而解决复杂问题。这种组合生成了混合的理解,允许AI深入挖掘。专家层本身可以由 MoE 组成,创建分层结构,进一步缓解上下文复杂性并提升问题解决能力。MoE 通常使用稀疏门控层,动态选择多个并行网络中的最佳响应,以便给出最合适的答案。为了实现更灵活的响应,单个专家可以针对代码生成、翻译或情感分析进行微调。更复杂的 MoE 架构可能包含多个 MoE 层,并与其他组件结合使用。像任何典型的语言模型架构一样,MoE 的门控层操作基于语义标记,并需要进行训练。
智能体混合(MoA)
当小型语言模型(SLMs)组装成 MoA 架构时,可以增强多样化推理集合的选择性,使得AI能够执行任务时采用所需的方法论,从而精准地执行任务。智能体模型被组装成一个联盟,分层执行协议,提升复杂任务的效率和问题解决能力。因此,AI 可以在多领域场景下工作。智能体团队可以按顺序工作,迭代地改进先前的结果。MoA 在性能上往往明显优于更大的模型,包括 GPT-4 Omni 在 AlpacaEval 2.0 上的 57.5% 准确率,即使在开源模型中也有如此表现。智能体混合(MoA)是在模型输出层面操作,而非语义标记层面。它没有门控层,而是并行地将文本提示转发给所有智能体。MoA 的输出也不是通过加法和归一化进行汇总,而是通过连接并与合成与聚合提示一起结合,再传递给另一个模型以生成最终输出。因此,模型被分为“提出者”(计算不同输出)和“聚合者”(整合结果)。与 MoE 一样,多个这样的层可以进行组合。缺乏门控层使得这一方法在面对复杂任务时更加灵活和适应性强。
DeAI(去中心化AI)经济是 Assisterr 平台的一个基本组成部分。它利用区块链技术创建了一个去中心化的AI模型和数据市场。这个经济体系激励数据共享与协作,确保贡献者能够公平地获得回报。DeAI 经济的关键组成部分包括:
AssisterrAI 提供了一个统一的基础设施管道,用于创建、代币化和分发小型语言模型(SLMs),并通过这一方式激励所有社区贡献者的参与。AI 实验室允许用户在自己知识领域内为模型做出贡献,成为AI的共同创作者和共同拥有者。这种方法确保AI临时工作者不仅能够获得一次性、交易性的报酬,还能捕捉更广泛的市场价值,保障更好的未来,使人们成为AI的受益者,而非进步与自动化的受害者。
为了访问平台,用户需要连接一个基于浏览器的Solana钱包,以及他们的X个人资料和Discord账户。然后,他们可以通过Assisterr用户界面的AI实验室标签来创建模型,界面提供了一个简单的表单,用于指定关键参数、提示模板和模型元数据。用户可以直接上传数据,这些数据将通过检索增强生成(RAG)嵌入模型,后续还可以通过微调来优化。一旦模型创建完成,可以通过SLM商店将其公开。在未来,AI实验室将采用模块化、多模型范式,并结合智能体混合架构和增强检索策略。
Assisterr 的贡献者在AI模型的创建过程中每个步骤都能获得奖励,从数据贡献、模型创建到验证和审查。这个收入共享机制是通过SLM代币化模块实现的。AI实验室有效地将业务用例与所需的数据和专业知识连接起来。一旦模型出现在Assisterr界面的SLM商店标签中,任何用户都可以通过聊天机器人界面查询该模型。目前,机器人在Web3生态系统、医疗健康、软件开发和金融等多个领域提供帮助。
SLM商店中的每个模型都配有一个以Assisterr原生代币计价的金库,每次查询时都会从相应用户的余额中补充。查询可以通过连接Solana钱包的WebUI或API进行,从而使SLM商店中的模型可以通过其他应用程序访问。贡献者可以创建SLM,将它们组合成智能体,并通过零代码界面部署,从而提供快速的市场进入周期和快速的创新周期。这解决了独立模型创作者和开发者在分发和盈利化过程中面临的挑战。
通过“贡献与赚取”标签,用户可以通过满足数据请求和验证性能指标,参与对SLM商店中现有模型的迭代改进,并获得管理代币(MTs)或原生Assisterr代币。这一同行评审过程确保了模型创建的不断进化,并随着时间的推移提高了吞吐量。结合智能体混合(MoA)等功能,这使得累积进展和持续的自下而上的调整成为可能。SLM的模块化和专用性使其能够快速集成到现有工作流程中。未来,企业或个人将能够描述他们的问题,Assisterr的服务将涉及相关的SLM/智能体池来找到解决方案。
原生Assisterr代币是AssisterrAI生态系统运营的载体。它会在SLM开发过程的每个阶段,通过验证履行智能合约协议的行动进行交易。通过利用该代币,参与者可以与Assisterr生态系统的各项功能进行互动,例如访问产品、支付费用,以及为SLM的创建、管理和盈利化做出贡献。
去中心化金融(DeFi)AI智能体是Web3领域的重大创新。超越通用推荐系统,专门的AI在安全、许可的约束下运行,能够更好地优化和自动化金融组合。为快速交易媒体(如Solana DeFi协议)创建的智能体SLMs可以增强借贷、永续交易和质押等功能。这些智能体通过SLM集合和现代的智能体混合(MoA)联盟提供更好的数据策划、多模态推理和深度功能分析。
为复杂交易场景量身定制的交易智能体能够分析钱包聚类和价格走势,在动荡的DeFi市场和传统金融(TradFi)中都具有极大的实用性。基于SLM的MoA在数据参考交易策略中特别有效,其中执行媒介和方法至关重要。这些智能体通过利用先进算法和实时数据来提高交易效率和盈利能力。
具有先进学习和分析能力的自主聊天智能体在学术、社交和专业领域具有重要价值。它们可以作为各种服务的支持代理,连接社交网络和IT应用。通过加入智能体功能,这些对话支持模型可以充当联络人,根据用户反馈实施功能并提供可操作的支持。
SLMs可以创建基于文本、音频或视频的代理,生成用于深度互动和公众任务的虚拟形象。这些虚拟形象可以处理复杂的功能,如3D虚拟形象、自动文本到视频生成以及社交平台上的直播集成。基于SLM的MoA可以增强下一代多模态互动,使面向公众的虚拟形象更加互动和高效。
在AssisterrAI平台上推出的专门Web3开发者关系(DevRel)概念验证证明了强大的市场适应性。健全的DevRel机制对于吸引开发者并在采用技术栈时提供全面支持至关重要。然而,这也伴随着巨大的成本,DevRel岗位的年薪从90,000美元到200,000美元不等。许多开发者支持请求是可预测的,可以通过自动化来提高DevRel效率,借助SLMs的有针对性使用来降低成本,同时保持对开发者的高质量支持。
1.访问 Assisterr 网站:前往 Assisterr 的官方网站并点击“打开应用”。
2.连接钱包:点击“选择钱包”按钮并连接你的浏览器基础的Solana钱包。这个钱包将用于交易和访问平台上的各种功能。
3.链接社交账户:连接你的X个人资料和Discord账户。这些连接有助于验证你的身份,并将你的社交存在与Assisterr生态系统整合。
4.完成注册:按照屏幕上的指示完成注册过程。注册完成后,你就可以开始探索平台及其功能。
1.导航到 SLM 商店:登录后,前往 Assisterr 界面上的 SLM 商店标签。.
2.浏览可用模型:浏览商店中各种可用的小型语言模型(SLMs)。每个模型都是为特定任务和行业设计的,例如 Web3 生态系统、医疗保健、软件开发和金融。
3.查询模型:你可以通过聊天机器人界面查询任何模型。只需选择你感兴趣的模型并开始与其互动。查询可以通过连接的 Solana 钱包在 Web 界面中进行,也可以通过 API 与其他应用集成进行查询。
1.访问 AI 实验室:前往 Assisterr 界面上的 AI 实验室标签。
2.指定模型参数:填写配置表单,指定模型的关键参数、提示模板和元数据。这包括定义模型的名称、标识、目的描述、类别、封面图像、对话开场白和数据集。你还可以通过使用 AI 助手来加快这个过程。
3.上传数据:直接上传将通过检索增强生成(RAG)和微调嵌入模型的数据。这些数据有助于训练模型执行预定任务。
4.发布你的 SLM:配置完成后,点击发布按钮。你的模型将被生成,你可以选择将其发布到 SLM 商店或保持私密。将其发布到公开后,其他用户可以访问并查询你的模型。
Assisterr 是一家位于剑桥的 AI 基础设施初创公司,成功完成了 170 万美元的种子前融资轮。此次投资轮吸引了多个知名的 Web3 风投基金参与,包括 Web3.com Ventures、Moonhill Capital、Contango、Outlier Ventures、Decasonic、Zephyrus Capital、Wise3 Ventures、Saxon、GFI Ventures、X Ventures、Koyamaki、Lucid Drakes Ventures,以及多位知名天使投资人,如 Michael Heinrich、Mark Rydon、Nader Dabit、Anthony Lesoismier-Geniaux 和 Ethan Francis。这些资金对于 Assisterr 建设基础设施和推出平台起到了至关重要的作用。
自平台启动以来,Assisterr 已取得显著进展,包括吸引了 15 万注册用户,并为领先的 Web3 协议如 Solana、Optimism、0g.ai 和 NEAR 推出了超过 60 个小型语言模型(SLMs)。此外,Assisterr 还因赢得多个全球黑客松比赛并参与 Google 的 AI 初创公司计划而获得认可,获得了 35 万美元的资金支持,以支持其 GPU、CPU 和云基础设施的需求。
Assisterr 有一个明确的未来发展和增长路线图。主要的里程碑包括:
AI 实验室(2024 年第四季度)
网络增长(2025 年上半年)
SLM-智能体混合(2025 年下半年)
Assisterr 正在通过利用小型语言模型(SLMs)和创新的经济模型,开创一个新的去中心化、社区拥有的 AI 时代。通过解决大型语言模型(LLMs)的局限性并提倡协作方式,Assisterr 正在使 AI 技术变得更加可访问、高效和可持续。平台的综合生态系统,包括 AI 实验室、SLM 商店和协作元素,赋予用户创建、分享和货币化 AI 模型的能力。