一文看懂! 各家"大模型发布"时间线暗藏的科技密。码
在科技日新月异的今天,人工智能领域正经历着前所未有的变革。其中,“大模型”作为AI技术的新高地,正逐步成为推动行业创新与社会发展的关键力量。这些拥有数以亿计参数、能够处理复杂任务的巨型模型,不仅深刻改变了我们对智能的理解,更在诸多领域如自然语言处理、计算机视觉、推荐系统等展现出巨大的应用潜力。
梳理大模型发布时间线,能清晰洞察人工智能发展脉络。从早期探索到如今百花齐放,大模型的每一次迭代都推动着科技浪潮。下面,让我们一同回溯各家大模型的发布时间线,见证这场激动人心的科技变革。
1
OpenAI
1. 2016 年4月:OpenAI Gym 发布,强化学习训练平台,提供了一套工具用于开发和比较强化学习算法,促进了AI社区的算法研究。
2.2016 年8月,Nvidia 向 OpenAI 赠送了其首款 DGX-1 超级计算机,以帮助训练更大、更复杂的 AI 模型,并将处理时间从 6 天缩短到 2 小时。
3. 2016 年12月:Universe 发布,通用AI开发与测试平台,支持AI在各种环境中进行训练和测试,拓展了强化学习的应用领域。
4.2017年:OpenAI 在云计算上花费了 790 万美元,占其功能性支出的四分之一。相比之下,DeepMind 在 2017 年的总支出为 4.42 亿美元。
5. 2018 年6月:GPT-1 发布,这是首个将 Transformer 架构与无监督预训练结合的大型语言模型,参数量约 1.17 亿。【标志着大规模预训练语言模型时代的起步】
6. 2019 年2月:GPT-2 发布,参数量达 15 亿,显著增强了文本生成的质量和多样性。
7. 2020 年6月:GPT-3 发布,参数量 1750 亿,基础大型语言模型,用于生成文本,引入了上下文学习技术,能够执行多种任务,如翻译、问答和代码生成。
8. 2021年1月:DALL・E 发布,这是图像生成模型,能够根据文本描述生成逼真的图像,展示了多模态生成的潜力。
CLIP 发布(对比语言-图像预训练)是一种模型,旨在分析文本和图像之间的语义相似性。它特别适用于图像分类任务。
9. 2021年8月:Codex 发布,专为代码生成设计,它在 GPT-3 基础上针对编程语言微调,能够将自然语言描述转换为代码,成为 GitHub Copilot 的核心技术。
10. 2022年4月:DALL・E 2 发布,采用扩散模型进行图像生成,提供更高分辨率的图像生成,支持编辑现有图片。
11. 2022 年9月:Whisper 发布,是多语言语音识别模型,接近人类水平的识别精度,支持多语言语音识别、语音翻译和语言识别。
12. 2022年11月:ChatGPT 发布,基于 GPT-3.5 系列进行对话优化,提供更自然流畅的聊天体验。【标志着生成式 AI 应用的普及】
13. 2023年2月:推出 ChatGPT Plus 订阅服务(每月 20 美元),为用户提供更快响应和优先使用最新功能
14. 2023年3月14日:GPT-4 发布,支持多模态输入,能够分析文本和图像,处理复杂任务的能力更强,在推理、编码等方面性能提升。
15. 2023年3月24日:ChatGPT Plugins 推出,对第三方插件的支持,ChatGPT Plugins是进一步生态变革的开端,基于ChatGPT的改进包括:能够访问互联网实时数据、创建并编译代码、调用和创建第三方程序等等。
16. 2023年5月18日:ChatGPT iOS 版发布
17. 2023年8月28日:ChatGPT Enterprise 版发布,面向企业的ChatGPT版本,提供企业级安全和数据隐私保护,提供无限速的GPT-4访问权限,支持32K上下文输入,高级数据分析功能,自定义选项等所有高级功能
18. 2023年9月26日:GPT-4V (Vision)视觉增强版 发布,加强了图像处理与理解能力,使模型在多模态任务上更具竞争力,可以执行更复杂的视觉分析任务,如详细的场景描述、物体识别、视觉推理等
19. 2023年11月6日:GPT-4 Turbo、DALL·E 3、GPTs 发布,在 GPT-4 基础上进行了性能优化,减少了推理时间和资源消耗。
20. 2024年2月:Sora 预告,专注于视频生成的大规模预训练模型,可以生成高质量、长时间的视频内容。
21. 2024年5月14日:GPT-4o 发布,进一步扩展多模态处理能力,支持文本、音频和图像组合输入,响应速度提升,引入情感计算技术。
22. 2024年6月25日:Mac 版ChatGPT 发布
23. 2024年7月18日:GPT-4o-mini 发布,相当于是能力更强的"GPT-3.5",同时支持文本和图像,GPT-4o mini 成本比 GPT-3.5 Turbo便宜超过60%
24. 2024年7月25日:ChatGPT Android 版发布
25. 2024年9月12日:o1预览版、O1-preview、O1-mini 发布,O1 旨在进一步推进多模态处理能力和智能交互;O1-preview 为开发者和研究人员提供的早期版本;O1-mini 针对边缘设备和移动应用进行了优化。
26. 2024年10月3日:Canvas 发布,在写作和代码方面展开协作,为ChatGPT引入新的写作和编程界面,提升用户与AI协作的体验。
27. 2024年10月18日:Windows 版ChatGPT 发布
28. 2024年10月31日:ChatGPT搜索功能 发布,仅在ChatGPT Plus等付费套餐中可以使用,实时网络搜索,ChatGPT整合了实时互联网信息,提升了回答的准确性和时效性
29. 2024年12月5日:o1 完整版& ChatGPT Pro 发布,o1 支持图像输入,比 o1-preview 思考时间更短,但响应更快。ChatGPT Pro。200 美元/月的会员订阅费。不限制使用次数(包括o1、o1-mini、语音模式等等),另外也会有更智能的 o1 使用模式。
30. 2024年12月6日:强化微调技术(Reinforcement Fine-Tuning, RFT)发布,与监督微调不同,监督微调的目标是让模型复制在输入文本或图像中提取出的特征。强化微调 RFT 不只是让模型学会模仿输入,而是学会以全新的方式进行推理,仅需要几十个例子即可做到。
31. 2024年12月10日:Sora Turbo 发布,相比初代Sora,Sora Turbo生成视频速度更快。该工具不仅可以通过文本提示生成视频,还能够基于静态图片和已有视频创建新的内容。
32. 2024年12月14日:推出 Projects 功能 ,通过项目可以你可以上传文件、设置自定义指令。
33. 2024年12月20日:o3 & o3-mini 预告,据 OpenAI 官方消息,25 年 1 月底上线了 O3-mini。
34. 2025 年1月15日:OpenAI上线ChatGPT Tasks模型发布,是一个未来的“定时任务助手”,能让你的ChatGPT在未来某个时间点执行你设定的任务 与苹果Siri、谷歌Assistant、亚马逊Alexa这些语音助手不同,Tasks由强大的GPT-4o模型驱动。
35. 2025年1月23日:Operator 发布,Operator 由名为 Computer-Using Agent (CUA) 的新模型驱动。这是 OpenAI 发布的第一个 Agent,旨在通过模拟人类在浏览器上的操作(如打字、点击和滚动)来完成各种重复性任务,从而扩展 AI 的实用性,帮助用户节省时间和为企业创造新的互动机会。(第一个智能体)
36. 2025年1月31日:O3-mini 发布,与 OpenAI o1 类似,OpenAI o3-mini 针对 STEM 推理进行了优化。在中等推理强度下,o3-mini 在数学、编程和科学方面的表现与 o1 持平,同时响应速度更快。
37. 2025年2月2日:Deep Search 发布,OpenAI 发布的第二个 Agent。Deep Research基于 o3的微调版本,它能够在数十分钟内完成人类研究人员需要花费数小时才能完成的工作,极大地提高了研究效率。
2
MiniMax
1. 2022 年 10 月:推出了首款面向用户的产品 “Glow”,主打虚拟角色创建与对话体验,短时间内获得了约500万用户。【后续因备案或运营问题,“Glow”在2023年3月终止,并为后续产品重塑做准备】
2. 2023 年 3 月:MiniMax 开放平台 推出,面向 B 端用户的大语言模型技术平台。
3. 2023 年 6 月:abab 5.5 版本开始尝试 MoE 架构,第一版是 Dense 稠密架构。
4. 2023 年 6 月:“Glow”在国际市场以 “Talkie” 品牌重新上线,一款虚拟聊天机器人应用程序,主打国际市场。
5. 2023 年 8 月:MiniMax 大模型全面开放,适用于逻辑推理、文本续写等文本处理场景,开放平台还提供声音大模型能力。
6. 2023 年 9 月:针对中国市场,“Glow”被重新命名为 “星野”,定位更贴合国内用户,继续延续基于大模型的对话和内容生成功能。
7. 2023 年 10 月:abab 5.5 第二代正式转为 MoE 架构。
8. 2024 年1 月:abab 6 发布,全量大语言模型 ,为国内首个数千亿参数级别 MoE 大语言模型。
9. 2024 年1月 30日:Minimax 的 AI 对话机器人问答产品「海螺问问」上线。
10. 2024 年4 月 17日:abab 6.5系列 发布,推出万亿参数 MoE 大语言模型 abab6.5 和 6.5s 模型,支持高达200K tokens 的上下文长度,性能接近GPT-4等世界领先模型。
11. 2024 年 4 月:基于 abab-6.5 模型开发的生产力工具 “海螺 AI” 推出。
12. 2024 年 5月 15日:正式发布原生应用「海螺 AI」,并在官网以及应用端 APP 上线。
13. 2024 年8月 31日:发布视频模型 abab - video - 1 、音乐模型music-01、生成式语音合成大模型speech-01,并集成在海螺 AI 中,该模型为文本到视频生成模型,支持以文字生成6秒2K视频(25帧率),与国际上 Sora 产品形成对比。
14. 2024 年11 月:计划发布对标 GPT-4o 的 Realtime API 服务,提升端到端实时多模态处理能力。
15. 2025 年 1月15日:MiniMax-01系列 ,包括基础语言大模型MiniMax-Text-01和视觉多模态大模型MiniMax-VL-01。采用混合专家(MoE)架构,支持400万token的上下文处理,可输入长度是GPT-4o的32倍,Claude-3.5-Sonnet的20倍,综合性能比肩GPT-4o和Claude-3.5-Sonnet。
16. 2025 年 1月 20日:发布全新升级的 T2A-01 语音模型,同时上线「海螺语音」产品。
3
月之暗面
1. 2023 年 10 月 9 日:推出首个支持输入 20 万汉字的智能助手产品 Kimi Chat(后更名为Kimi 智能助手),这是全球市场上能够产品化使用的大模型服务中所能支持的最长上下文输入。
2. 2024 年 3 月 18 日:Kimi 智能助手启动 200 万字无损上下文内测,超越了 GPT-4turbo-128k 约 10 万汉字和 Claude 3200k 约 16 万汉字的能力。
3. 2024 年 4 月 18 日:Kimi最新版本,模型能力提升,支持语音输入/播报,搜索引用溯源。
4. 2024 年 7 月 8 日:Kimi浏览器插件,上线浏览器插件,具备划选文字和网页总结功能
5. 2024 年 10 月 11 日:Kimi探索版,正式上线具备AI自主搜索能力的Kimi探索版,一次搜索可精读500个页面。
6. 2024 年 11 月 16 日:Kimi Chat 宣布推出新一代数学推理模型 k0-math,其数学能力可对标全球领先的 OpenAI o1 系列可公开使用的两个模型:o1-mini 和 o1-preview。
7. 2024 年 12 月 16 日:k1视觉思考模型,发布AI视觉思考模型k1,支持端到端图像理解和思维链技术。
8. 2025年1月15日:moonshot-v1-vision-preview,发布多模态图片理解模型,完善moonshot-v1模型系列的多模态能力。
9. 2025 年 1 月 20 日:发布 k1.5 多模态思考模型,在 short-CoT 模式下,Kimi k1.5 的数学、代码、视觉多模态和通用能力大幅超越了全球范围内短思考 SOTA 模型 GPT-4o 和 Claude 3.5 Sonnet 的水平,领先达到 550%;在 long-CoT 模式下,Kimi k1.5 的数学、代码、多模态推理能力也达到长思考 SOTA 模型 OpenAI o1 正式版的水平。
4
百川智能
1. 2023 年 6月 15日:发布第一款免费商用的大模型 Baichuan-7b 并开源。
2. 2023 年 7月11日:发布第二款开源可免费商用的大语言模型 Baichuan-13b。
3. 2023 年 8月 8日:发布第三款闭源大语言模型 Baichuan-53b ,开启第一批内测。
4. 2023 年 9月 6日:发布 Baichuan2-7b、Baichuan2-13b 两款免费可商用的开源模型,Baichuan-7b 升级到 2.0 版本。
5. 2023 年 9月 25日:Baichuan2-53B,发布闭源大模型,开放API接口,开启商业化。
6. 2023 年 10 月 30日:发布 Baichuan-192K 大模型,上下文窗口长度为当时全球最长。
7. 2023 年 11月 16日:与鹏城实验室合作研发基于国产算力的 128k 长窗口大模型 “鹏城 - 百川・脑海 33b”。
8. 2024 年 12 月19日:开放基于搜索增强的 Baichuan2-Turbo 系列 API。
9. 2024 年1月9日:发布角色大模型 Baichuan-NPC。
10. 2024 年1月29日:发布超千亿参数的大语言模型 Baichuan3。
11. 2024 年 5月 22日:发布最新一代基座大模型 Baichuan4,推出首款 AI 助手 “百小应”,开放 Baichuan4、Baichuan3-Turbo、Baichuan3-Turbo-128k、Assistant API 四款 API。
12. 2025 年 1月 24日:发布全场景深度思考模型 Baichuan-M1-preview、开源医疗增强大模型 Baichuan-M1-14B。
5
阶跃星辰
1. 2024 年 3 月 23 日:在 2024 全球开发者先锋大会上发布 Step-1 千亿参数语言大模型、Step-1V 千亿参数多模态大模型、Step-2 万亿参数 MoE 语言大模型(预览版),提供 API 接口给部分合作伙伴试用。
2. 2024 年 7月 4日:在 2024 世界人工智能大会上发布 Step-2 万亿参数语言大模型(正式版)、Step-1.5V 多模态大模型、Step-1X 图像生成大模型。
3. 2025 年 1 月:批量更新 6 款模型,包括多模态理解模型 Step-1o vision、语音模型 Steo-1o Audio 升级、视频生成模型 Step-Video V2 版、推理模型 Step Reasoner mini(Step R-mini)、Step-2 文学大师版等。
6
零一万物
1. 2023 年 11 月 :发布首款预训练大模型 Yi-34B15,参数量340亿,支持200K超长上下文窗口。
2. 2024 年 1 月 22日:Yi Vision Language(Yi-VL)多模态语言大模型正式面向全球开源。据悉,Yi-VL 模型基于 Yi 语言模型开发,包括 Yi-VL-34B 和 Yi-VL-6B 两个版本。
3. 2024 年 3月 6日:开源 yi-9b 模型,开源模型,代码和数学能力突出。
4. 2024 年 3月 14日:正式发布 Yi 大模型 api 开放平台,提供通用Chat、超长上下文、多模态交互等模型。
5. 2024 年 5月 7 日:推出 万知,一站式AI工作平台,支持会议纪要、写作助手等功能。
6. 2024 年 5月13日:发布千亿参数 Yi-Large 闭源模型,同时将 Yi-34B、Yi-9B/6B 中小尺寸开源模型版本升级为 Yi-1.5 系列。
7. 2024 年 6 月:Yi-Large 等一系列大模型登陆阿里云百炼平台,包括Yi-Large、Yi-Large-Turbo等。
8. 2024 年 10月 16日:发布新的预训练模型 Yi-Lightning,新旗舰模型,性能进一步提升。
7
智谱AI
1. 2021 年9月:推出 100 亿参数的 GLM-10B 模型。
2. 2022 年 8 月:发布高精度千亿大模型 GLM-130B 并开源,同时推出 ChatGLM 对话模型及多模态模型产品矩阵。
3. 2022年9月:发布代码生成模型 CodeGeeX。
4.2022年10月:发布开源的100+语言预训练模型mGLM-1B。
5. 2023 年 3 月:发布千亿基座的对话模型 ChatGLM 及其单卡开源版本 ChatGLM-6B,针对中文进行了优化。
6. 2023 年 5 月:开源多模态对话模型 VisualGLM-6B(CogVLM)。
7. 2023 年 6 月:发布全面升级的 ChatGLM2 模型矩阵,ChatGLM2-6B 是与清华大学 KEG 实验室在对话 AI 领域的合作成果,在继承前代模型特性的基础上,进行了一系列的技术更新和优化。
8. 2023 年 8 月:作为国内首批通过《生成式人工智能服务管理暂行办法》备案的大模型产品,AI生成式助手“智谱清言”正式上线。
9. 2023 年 10 月:发布第三代 ChatGLM3 系列模型及相关系列产品,推出新一代多模态大模型 CogVLM,同时开源 ChatGLM3-6B。
10. 2024 年 1 月:推出性能提升的 GLM-4 大模型,整体性能相比上一代大幅提升。
11. 2024 年 2 月:推出超拟人大模型 CharacterGLM,开源部分模型。
12. 2024 年 7 月:在世界人工智能大会上发布 CodeGeeX4-ALL-9B 代码生成大模型。
13. 2024 年 9 月:在 KDD 国际数据挖掘与知识发现大会上发布包含新一代语言基座大模型 GLM-4-Plus 在内的一系列产品,还推出了图像 / 视频理解模型 GLM-4V-Plus 和文生图模型 CogView-3-Plus,并开源视频生成模型 CogVideoX 5B 版本。
14.2024年10月14日:智谱技术团队宣布开源文生图模型CogView3及CogView3-Plus-3B,该系列模型的能力已经上线“智谱清言”App。
15.2025年1月16日:推出 GLM-Realtime、GLM-4-Air-0111、GLM-4V-Plus 以及 Flash 系列模型。
8
Deepseek
1.2023年11月2日:发布DeepSeek-Coder。支持多种编程语言的代码生成、调试和数据分析任务,免费供商业使用且完全开源。
2.2023年11月29日:发布DeepSeek LLM 67B。
3.2024年2月6日:发布DeepSeekMath。在竞赛级 MATH 基准测试中取得 51.7% 的优异成绩,接近 Gemini-Ultra 和 GPT-4 的性能水平。
4.2024年3月11日:发布DeepSeek-VL。拓展在视觉语言领域的技术能力。
5.2024年5月7日:发布DeepSeek-V2。总参数达 2360 亿,推理成本低,引发行业关注。
6.2024年6月17日:发布DeepSeek-Coder-V2。在代码特定任务中达到与 GPT4-Turbo 相当的性能。
7.2024年9月5日:更新 API 支持文档,宣布合并 DeepSeek Coder V2 和 DeepSeek V2 Chat,推出 DeepSeek V2.5。
8.2024年12月13日:发布用于高级多模态理解的专家混合视觉语言模型DeepSeek-VL2。
9.2024年12月26日:正式上线DeepSeek-V3首个版本并同步开源。
10.2025年1月20日:正式发布DeepSeek-R1,性能对标 OpenAI o1 正式版,并同步开源模型权重。
11.2025年1月28日:Janus-Pro发布,进一步改进多模态理解与图像生成。
(内容来源:北晚在线)
作者: 编辑:姚嘉琪
越牛新闻客户端
越牛新闻微信
绍兴发布微信
越牛新闻微博
绍兴发布微博
新闻热线
0575-88880000
投稿信箱
zjsxnet@163.com