大模型周报将从【企业动态】【技术前瞻】【政策法规】【专家观点】四部分,带你快速跟进大模型行业热门动态。

01 企业动态

Ilya 新公司 SSI 官宣融资 10 亿美元

据报道,由 联合创始人、前首席科学家 Ilya 在 2 个多月前共同创立的安全超级智能(SSI)公司,完成融资 10 亿美元。这笔融资将用于帮助开发远超人类能力的安全人工智能(AI)系统。SSI 拒绝透露公司最新估值,但接近此事的消息人士称 SSI 的估值已经高达 50 亿美元。Ilya 表示,他将采用与 不同的方式继续践行 law,但尚未透露任何细节。 有望年底发布 GPT-Next,比 GPT-4 强 100 倍

据《科创板日报》报道,在最近举行的 KDDI 峰会上, 日本子公司首席执行官 Tadao 透露,代号为“GPT-Next”的新一代模型性能预计将比现有的 GPT-4 模型强大 100 倍,并计划在今年晚些时候发布。GPT-Next 模型性能的提升归功于其优化的架构设计和学习效率的改进,而不是单纯依赖于庞大的计算资源。

智谱完成新一轮数十亿元融资

近日,智谱以 200 亿元的投前估值,完成了新一轮融资,金额达数十亿元。本轮领投方为中关村科学城公司,其为海淀区政府设立的市场化投资平台。

推出 计划

为其人工智能(AI)聊天机器人 推出一个新的订阅计划—— ,主要面向希望获得更多管理控制和更高安全性的企业客户。 允许企业客户上传公司专有文件,帮助他们分析信息、回答相关问题、创建图形和简单的网页,或者充当专用的 AI 助手,其上下文窗口为 50 万 token,可以在一次提示中处理多达 20 万行代码、几十份 100 页的文档或两小时的音频转录。

马斯克:超级 AI 训练集群 已上线

日前,马斯克在 X 上发帖表示,其人工智能(AI)初创公司 xAI 已经上线了庞大的 AI 训练系统 。 由 10 万张英伟达 H100 GPU 驱动。“ 是世界上最强大的 AI 训练系统,”马斯克表示,“这一系统的规模将在几个月内翻一番,达到 20 万张 GPU(其中 5 万张为 H200)。”

无问芯穹完成近 5 亿元 A 轮融资

日前,无问芯穹宣布完成近 5 亿元 A 轮融资,本轮融资联合领投方为社保基金中关村自主创新专项基金、启明创投和洪泰基金,跟投方包括联想创投、小米、软通高科等。据了解,无问芯穹本次融资募集的资金将用于加强技术人才吸纳与技术研发,做 AI 模型算力的“超级放大器”。

腾讯发布新一代大模型“混元 Turbo”

据财联社报道,在 2024 腾讯全球数字生态大会上,腾讯发布了新一代大模型——腾讯混元 Turbo。该模型采用 MoE 架构,比上一代产品推理效率提升 100%,推理成本降低 50%。此外,腾讯混元 Turbo 的价格也比混元 Pro 降低50%,输出价格为0.05元/千,输入价格为0.015元/千。

面壁智能推出全新 .0 基座模型

日前,国内大模型厂商面壁智能推出端侧模型面壁小刚炮系列升级版本 .0 基座模型。据介绍,.0 参数大小为 4B,性能超越 GPT-3.5,且量化后仅 2GB 内存,对端侧友好,具有无限长文本的特色。

02 技术前瞻

清华、智谱团队推出 :让 LLM 在长上下文问答中生成精细引用

尽管目前的长上下文大语言模型(LLM)在回答用户基于大量文本的问题时表现出了强大的能力,但由于其回答中缺乏引用(),使得用户很难验证,这导致了人们对其潜在幻觉的可信度的担忧。

在这项工作中,来自清华大学和智谱的研究团队旨在让长文本 LLM 生成具有细粒度句子级引用的回答,从而提高其忠实性和可验证性。他们首先介绍了 -Cite,这是一种自动基准,用于评估当前 LLM 在带引用的长上下文问答(LQAC)中的性能,显示出相当大的改进空间。

为此,他们提出了一种利用现成的 LLM 自动生成具有精确句子级引用的长上下文问答实例的新型管道 CoF( to Fine),并利用该管道构建了用于 LQAC 的大规模 SFT 数据集 -45k。最后,他们使用 -45k 数据集训练 -8B 和 -9B,成功使它们能够在单个输出中生成准确回复和细粒度句子级引用。

-Cite 上的评估结果表明,他们训练的模型在引用质量方面达到了 SOTA,超过了包括 GPT-4o 在内的先进专有模型。

图形种类_图形种类分成两组_100种图形

图形种类_图形种类分成两组_100种图形

首个混合 Mamba 和 的多模态大语言模型

扩展多模态大语言模型(MLLM)的长上下文能力涉及一系列系统优化工作,包括模型架构、数据构建和训练策略。在这项工作中,来自香港中文大学、深圳大数据研究院的研究团队,将模型架构调整为 Mamba 和 模块的混合体,并提出了首个混合 MLLM——(Long- Large and )。它不仅在各种基准测试中取得了具有竞争力的结果,还保持了高吞吐量和低内存消耗。特别是,它可以在单个 A100 80GB GPU 上处理近千张图像,为各种任务展示了广阔的应用前景。

图形种类_100种图形_图形种类分成两组

100% 开放的混合专家语言模型

来自艾伦人工智能研究所、 AI 的研究团队及其合作者,推出了一个完全开放的 SOTA 语言模型 OLMoE,它利用了稀疏混合专家(MoE)机制。OLMoE-1B-7B 拥有 70 亿参数,每个输入 token 仅使用 10 亿参数。他们在 5 万亿个 上对其进行预训练,并进一步创建了 OLMoE-1B-7B-。他们的模型在性能上超越了所有具有相似激活参数的现有模型,甚至超过了如 -13B-Chat 和 -16B 等大模型。

100种图形_图形种类_图形种类分成两组

:1 个 GPU,1 分钟,16K 图像

新加坡国立大学团队提出了一种广义线性注意力范式,来作为广泛流行的线性 token 混合器的一种低秩近似。为了节省训练成本并更好地利用预训练模型,他们从预训练的 。初始化该模型并提炼知识。

结果发现,经过相对较少的训练提炼出的模型,即 ,在性能上与原始 SD 持平甚至更优,同时显著降低了时间和内存复杂度。广泛实验表明, 提供了满意的零样本跨分辨率生成性能,能够生成 16K 高分辨率图像。此外,它与预训练的 SD 组件高度兼容,如 和 IP-,无需进行适配。

图形种类分成两组_100种图形_图形种类

MIT 团队提出上下文归因方法

语言模型在生成回答时是如何使用提供的上下文信息的?我们能否推断出一个特定生成的陈述实际上是基于上下文,还是一个误解,或者完全是编造的?为了帮助回答这些问题,麻省理工学院(MIT)团队提出了上下文归因问题:确定是上下文的哪些部分(如果有的话)导致模型生成了一个特定的陈述。然后,他们提出了一种简单且可扩展的上下文归因方法 ,其可以应用于任何现有的语言模型之上。

图形种类_100种图形_图形种类分成两组

:如何让 LLM 理解科学文献?

为了开发专门用于科学文献理解的大语言模型(LLM),来自深势科技、中国科学技术大学的研究团队提出了一种混合策略,将持续预训练(CPT)和监督微调(SFT)结合起来,从而同时注入科学领域知识并增强特定领域任务的指令遵循能力。应用这一策略,他们推出了 ,专门用于科学文献理解。

100种图形_图形种类_图形种类分成两组

Mini-Omni:首个用于实时语音交互的完全端到端开源模型

在这项工作中,研究团队推出了一种基于音频的端到端对话模型 Mini-Omni,其能够进行实时语音交互。为了实现这一功能,他们提出了一种基于文本指令的语音生成方法,并在推理过程中采用 batch 并行策略,从而进一步提高性能。这一方法还有助于保留原始模型的语言能力,并将退化程度降到最低,从而使其他工作能够建立实时交互能力。

图形种类_图形种类分成两组_100种图形

———END———
限 时 特 惠: 本站每日持续更新海量各大内部创业教程,永久会员只需109元,全站资源免费下载 点击查看详情
站 长 微 信: nanadh666

声明:1、本内容转载于网络,版权归原作者所有!2、本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。3、本内容若侵犯到你的版权利益,请联系我们,会尽快给予删除处理!