•   欢迎光临~~~
  •   欢迎光临~~~

股票定投的正确方法和技巧:用杠杆炒股-OpenAI、字节跳动宣布上新、降价! 奥尔特曼:未来AI成本或收敛至电力成本

摘要:   当地时间6月10日,OpenAI推出了o3-pro模型。公司称,o3-pro是o3模型的升级版本,旨在进行更长时间的思考并提供最可靠的响应。  此...
代码 名称 当前价 涨跌幅 最高价 最低价 成交量(万)

  当地时间6月10日,OpenAI推出了o3-pro模型。公司称 ,o3-pro是o3模型的升级版本,旨在进行更长时间的思考并提供最可靠的响应。

  此外,6月11日 ,字节跳动旗下火山引擎举办Force原动力大会,发布豆包大模型1.6、视频生成模型Seedance 1.0 pro等新模型,并升级了Agent开发平台等AI云原生服务 。豆包大模型1.6增加了图形界面操作能力 ,进而获得了“行动力”。

  同时,两家公司也进行了降价。豆包大模型首创按“输入长度 ”区间定价,豆包1.6价格大幅低于豆包1.5深度思考模型 、DeepSeek-R1 。OpenAI则将砍价“大刀”挥向了o3模型 ,此次宣布降价80%。

  新版本发布旧版本降价

  作为o3的升级版,o3-pro在各方面的表现更为优秀。更新日志显示,o3-pro在科研、编程、教育和写作等关键场景中更具优势 ,同时在清晰度 、全面性、指导遵循性和准确性方面 ,o3-pro也获得了较o3更高的评分 。此外,o3-pro支持调用ChatGPT的全套工具,如网页搜索、文件分析 、图像推理和Python编程等 ,具备较强的执行力和整合能力。

  在与谷歌Gemini、Anthropic Claude等同级别模型的对比中,o3-pro的测试分数也更高。

  据TechCrunch测评,在评估模型数学能力的AIME 2024测试中 ,o3-pro的得分超过了谷歌最好的人工智能模型Gemini 2.5 Pro 。o3-pro 还在GPQA Diamond(博士级科学知识测试)上击败了Anthropic最近发布的Claude 4 Opus。

  然而,由于任务调度和工具链调用更复杂,o3-pro响应时间将比o1-pro更长 ,OpenAI建议将o3-pro用在更需要深度思考或对答案准确性要求较高的场景中。

  定价方面,o3-pro输入每百万tokens的价格为20美元,输出每百万tokens的价格为80美元 。

  值得注意的是 ,在o3-pro模型发布的同一时间,OpenAI也调整了o3模型的API单价 。此前,o3输入每百万tokens的价格为10美元 ,输出每百万tokens的价格为40美元 ,而当前的价格则分别为2美元和8美元,降价幅度高达80%。

  OpenAI CEO萨姆·奥尔特曼(Sam Altman)在社交平台上表示:“我们将o3的价格下调了80%,很期待人们会用它来做什么。”

  萨姆·奥尔特曼的社交媒体截图

  豆包大模型1.6发布首创“区间定价 ”模式

  相较豆包1.5系列模型 ,豆包1.6系列模型支持多模态理解和图形界面操作,能够理解和处理真实世界问题 。在今年以来大模型业界最火热的深度思考方向,豆包1.6-thinking在复杂推理、竞赛级数学 、多轮对话和指令遵循等测试集上 ,也取得了全球领先的排名。

  豆包视频生成模型Seedance 1.0 pro也在此次大会上亮相。该模型支持文字与图片输入,可生成多镜头无缝切换的1080P高品质视频,并实现较高的主体运动稳定性与画面自然度 。至此 ,豆包大模型已涵盖多模态、视频、图像 、语音 、音乐等模型品类。

  截至2025年5月底,豆包大模型日均tokens使用量超过16.4万亿,较去年5月刚发布时增长137倍。据IDC报告 ,豆包大模型在中国公有云大模型市场份额排名第一,占比高达46.4% 。豆包1.5的多模态能力已广泛应用在电商识图、自动驾驶数据标注、门店巡检等场景。

  图形界面操作能力让豆包1.6进一步具备“行动力”。演示案例显示,豆包1.6可自动操作浏览器完成酒店预订 ,识别购物小票并整理成Excel表格等任务 。

  除了模型能力 ,价格也是本次大会的一大看点。豆包大模型1.6采用统一定价模式,首创按“输入长度”区间定价,在企业使用最多的输入区间0—32K范围内 ,豆包大模型1.6的价格为输入0.8元/百万tokens 、输出8元/百万tokens,综合成本比豆包1.5深度思考模型、DeepSeek-R1降低63%。Seedance 1.0 pro模型每千tokens 0.015元,相当于每生成一条5秒的1080P视频只需3.67元 。

  未来AI成本或收敛至电力成本

  新版本的发布总是伴随着老版本的降价 ,但在算力领域,价格降低的原因应该不止于“新老交替 ” 。

  当前,随着技术的不断进步、开源趋势的普及以及硬件成本的降低 ,大模型的成本正在快速下降。百度董事长 、CEO李彦宏曾表示,大语言模型每隔12个月,推理成本就可以降低90%以上。

  此前 ,大模型成本高、用不起,是开发者做AI应用的一大阻碍 。李彦宏认为,只有成本降低后 ,开发者和创业者们才可以放心大胆地做开发 ,企业才能低成本地部署大模型,最终推动各行各业应用的爆发。

  DeepSeek的出现改变了这一点,因其低成本的算法架构和开源模式 ,可供任何人免费使用、修改和构建,从而带动了整个行业应用成本的降低。

  业内人士分析认为,o3高达80%的降价幅度反映出的是产业阶段的变化 ,人工智能行业发力重点正从模型层转向应用层,推理成本的降低将更利好大模型落地 。此外,“群雄割据”的局面也愈发显著。对于OpenAI来说 ,无法与其他国内外竞争对手大模型能力拉开明显差距时,其收费价格也会快速降低。

  “随着数据中心生产的自动化,智能成本最终应该会收敛至电力成本 。”o3-pro发布后 ,萨姆·奥尔特曼在他的博客中写道。

  他介绍,ChatGPT平均每次查询消耗大约0.34瓦时的电量,大约相当于烤箱一点几秒的耗电量 ,高能效灯泡几分钟的耗电量;消耗的水量约为0.000085加仑 ,大约相当于十五分之一茶匙的水。

  这似乎意味着,未来大模型可能会成为一种类似水 、电的公共产品,在这些基础设施之上 ,再催生出百花齐放的应用 。

  谈及AI的最佳前进之路,萨姆·奥尔特曼认为,要专注于让超级智能变得廉价、广泛可用 ,并且不会过于集中,未来廉价到无法计量的智能会触手可及。

你可能想看:
分享到:

发表评论

评论列表

还没有评论,快来说点什么吧~