AI资讯

消息称 Meta 计划让 AI 接管 90% 产品风险评估,取代人工审核

Meta计划将高达90%的风险评估工作交由AI完成,包括涉及青少年风险和暴力内容等敏感领域。这一变革的目的是通过AI加快审核流程,减少人工审核的负担。尽管AI审核能够快速处理大量数据,但员工警告称,这种方式可能会忽视一些人工审核能识别的严重风险。Meta的这一举措主要针对Instagram和WhatsApp等社交媒体平台,以提升效率。然而,一些Meta的前高管指出,减少人工审核力度可能导致更高的风险,尤其是在产品变更带来的潜在问题没有得到及时识别的情况下。Meta表示,尽管AI系统处理低风险内容,但对于复杂或新颖的问题,公司仍然会依赖人工审核。 "Image 4" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/11e6934f-6aa8-4945-b97f-33b70d733122.jpg) Meta的人工审核任务长期以来主要针对产品发布前的风险评估,然而,随着AI的引入,Meta大幅度增加了对AI系统的依赖。通过填写调查问卷并提交给AI进行风险评估,Meta的产品团队现在能够快速得到风险评估的“即时决策”。然而,这种快速决策也带来了一些挑战,前高管担心过度依赖AI可能带来无法预见的风险,尤其是在产品发布后可能出现的问题。Meta回应称,AI将主要处理低风险决策,而对于复杂且新颖的风险,仍会依赖人工专家进行评估。

10
0
1
浏览量241
AI资讯

无人再谈AI六小龙

2025年行将过半,之前还热闹非凡的AI六小龙,几乎从舆论场中消失:再没有人特意提起这个称号。DeepSeek的冲击只是一方面。更重要的是,原本被冠以六小龙称号的队伍中,已经有人明显掉队:零一万物将超大模型交给了阿里训练,明确不再追逐AGI,放弃预训练转向应用。李开复在接受采访时表示:“大家都看得很清楚,只有大厂能够烧超大模型。” 百川智能则专注医疗垂类赛道,原计划对标OpenAI,但基础大模型进入了静默期,不再更新。剩下的智谱AI、MiniMax、月之暗面和阶跃星辰,也失去了资本和技术底气,曾经的AI六小龙已经变成了新的“AI四小强”。 随着ChatGPT的崛起,零一万物在2023年成立后,成为六小龙中的最后一员。行业对“AI六小龙”的评价和认可开始升温,六小龙的技术优势也逐渐被大厂赶超。随着大厂如阿里、字节的加入,六小龙的先发优势被完全超越。 这些创企曾有雄心壮志,力图改变世界,但在DeepSeek等开源模型的冲击下,六小龙的技术迭代和商业化遇到了前所未有的挑战。尽管这些创企中依旧有不少技术突破,但随着高管离职和融资停滞,很多曾经的AI明星企业开始面临倒退。 总之,AI六小龙的曾经风光不再,当前的四小强依然在尝试寻找新的定位与出路,然而面对资本和技术的双重压力,它们的未来依然充满不确定性。

13
0
0
浏览量224
AI资讯

Claude 团队打开大模型“脑回路”,推出开源 LLM 思维可视化工具

Claude 团队推出了一种名为“电路追踪”(circuit tracing)的开源工具,用于帮助理解大型语言模型(LLM)的内部工作原理,特别是如何处理信息并做出决策。该工具通过生成归因图(attribution graphs)来展示模型的内部神经网络,帮助研究人员跟踪和分析模型行为。 该工具的核心特性是能够干预节点的激活值,并观察模型输出的变化,从而验证各个节点的功能分工。例如,研究人员可以通过修改激活值并观察模型输出的变化,来解码和验证模型的“决策逻辑”。 工具支持与主流的开源模型兼容,并允许用户通过Neuronpedia提供的前端界面进行交互式的探索和可视化。该项目仅在GitHub发布不到24小时,就已获得400+星标,说明其受到了开发者社区的高度关注。 研究人员还展示了通过该工具进行多步推理和多语言电路追踪的方法,进一步揭示了模型在不同语言下的处理路径。这种方法能显著提高我们对LLM行为的理解,帮助开发者更好地优化和调试模型。 在实际应用中,用户能够生成自定义的归因图并在交互式前端上进行分析和分享。这种工具不仅适用于模型分析,还能为LLM研究提供更深入的洞察。 多个示例展示了该工具在不同的推理任务和多语言电路中的应用,包括对不同模型如Gemma 2(2B)和Claude 3.5 Haiku的归因分析,展示了不同输入如何影响模型的决策。 此外,研究人员也探讨了如何通过对节点的干预,验证对模型行为的假设。

22
0
1
浏览量393
AI资讯

让AI学着“看菜下碟”,港中大等新框架让推理长度减少90%,准确率反增17%

让AI学着“看菜下碟”,港中大等新框架让推理长度减少90%,准确率反增17% 近年来,人工智能领域的推理效率一直是研究的热点。香港中文大学与新加坡国立大学的研究者提出了TON(Think Or Not)框架,旨在提高视觉语言模型(VLM)的推理效率。 "Image 10" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/v2_4305707477d947baa72df6efc267c0e7@46958_oswg80446oswg693oswg168_img_000.jpg) 核心创新:引入“是否思考”的决策 TON框架的核心在于让模型决定何时思考。与传统的强化学习方法(如GRPO)不同,TON框架通过两阶段训练机制让模型学会在面对简单问题时跳过冗余的推理过程,而面对复杂问题时进行详细推理。研究表明,TON不仅有效减少了推理过程的长度,还提升了准确率。 实验结果:推理效率大幅提升,准确率反而提升 实验验证了TON框架的有效性,尤其是在CLEVR、GeoQA和AITZ等任务上,TON框架的平均推理输出长度减少了多达90%。尽管推理长度减少,模型的准确率却不降反升,某些任务上准确率提升了最高17个百分点。 "Image 11" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/v2_d2521f44e1c44f3bb446e9df953a5e33@46958_oswg19279oswg569oswg102_img_000.jpg) TON框架不仅提高了推理效率,减少了计算开销,也可能为多模态助手、机器人等实时互动应用提供了显著的性能提升。 “按需思考”模式:让AI更接近人类的思维方式 TON框架引入的“按需思考”模式,能够让AI在面临不同难度的问题时调整推理策略。对于简单问题,模型能够迅速跳过不必要的推理,而在处理复杂问题时则保持详细的推理过程。 这一创新的推理策略,不仅提升了推理效率,还能够让AI系统在与人类互动时表现得更加人性化。

13
0
0
浏览量283
AI资讯

OpenAI o3 AI 推理模型成关键“侦探”,发现 Linux 内核高危漏洞

安全专家 Sean Heelan 于 5 月 22 日发布博文,报道在 OpenAI 的 o3 推理模型帮助下,他成功发现了 Linux 内核重大漏洞,追踪编号为 CVE-2025-37899。Heelan 原本只是打算通过代码审计,测试 OpenAI 的 o3 推理模型,却意外发现 AI 能自主识别复杂的“use-after-free”漏洞,这一漏洞出现在 Linux 内核的 SMB 协议实现中。 “Use-after-free”是因为线程同步不当导致的内存损坏问题,可能引发内核内存破坏甚至任意代码执行。Heelan 提到,漏洞发生在处理 SMB 的“logoff”命令时,由于一个线程释放了对象,另一个线程仍在访问该对象,缺乏适当同步,导致了“use-after-free”问题。 Heelan 还对比了已知漏洞 CVE-2025-37778(Kerberos 认证漏洞),发现 o3 模型在分析约 3300 行代码时,识别率超越了其他模型,成功率最高提升三倍。他进一步测试,扩大代码规模至约 1.2 万行,o3 仍然成功定位了 Kerberos 漏洞并发现了新的“logoff”漏洞。 漏洞被发现后,Heelan 立即上报并迅速得到响应,补丁已合并到所有仍在维护的内核分支中。用户只需从发行版拉取更新即可修复漏洞。 "Image 5" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/chatgpt-found-kernel-vulnerability-patch.jpg) 文章中的广告声明被删除,原文包括外部链接和商业推广已被省略。

9
0
0
浏览量217
AI资讯

DeepSeek-R1-0528 更新官方详解:思考更深、推理更强,整体表现接近 o3

DeepSeek-R1-0528 更新官方详解:思考更深、推理更强,整体表现接近 o3 DeepSeek-R1-0528 是 DeepSeek R1 模型的最新版本,宣布完成小版本升级,用户可以通过官方网站、App 或小程序体验最新版本的“深度思考”功能。API 调用方式保持不变。 深度思考能力强化 该模型基于 2024 年 12 月发布的 DeepSeek V3 Base 模型,并在后训练过程中投入了更多算力,显著提升了思维深度与推理能力。新版模型在数学、编程与通用逻辑等多个基准测评中取得了优异成绩,整体表现接近国际顶尖模型如 o3 和 Gemini-2.5-Pro。 "DeepSeek-R1-0528 在评测中的表现" (https://img.ithome.com/newsuploadfiles/2025/5/c88435e8-a523-4bdd-8510-f0b12b0bb04c.png?x-bce-process=image/quality,q_75/format,f_webp) 与旧版 R1 相比,新版模型在复杂推理任务中的表现得到了显著提升。例如,在 AIME 2025 测试中,新版模型的准确率提升至 87.5%。 幻觉改善与创意写作 新版 R1 模型针对“幻觉”问题进行了优化,提升了改写润色、总结摘要和阅读理解的准确性,幻觉率降低了 45% 至 50%。同时,模型还对创意写作方面进行了增强,能更好地生成长篇、结构完整的议论文、小说等。 API 更新 新版 API 支持更强的功能,包括对思考过程的查看、Function Calling 和 JsonOutput 支持。max_tokens 参数已调整为最大支持 64K 的输出。 模型开源 DeepSeek-R1-0528 的权重和开源版本参数与之前版本相同,支持 128K 的上下文长度。该版本继续使用 MIT License 进行开源,用户可以通过模型蒸馏等方式进行训练。 详情请参考 "官方API指南" (https://api-docs.deepseek.com/zh-cn/guides/reasoning_model) 。

16
0
0
浏览量278
AI资讯

教育部发布 2025 年高考预警信息:靠 AI 或所谓“专家”押中题目可能性极小

教育部近日发布了2025年高考的预警信息,提醒考生和家长警惕网络上的虚假高考信息和不法分子的诈骗行为。教育部特别强调,不要相信高考押题的谣言,特别是利用AI或所谓‘专家’预测试题的行为极不可靠。近年来,一些不法商家通过网络宣传‘精准押题’、‘AI押题’等手段诱骗考生和家长购买假冒的备考资料。教育部还提醒,考生应提高辨识能力,避免参与任何形式的作弊或违法活动。 具体警示案例包括: 1. 高考作弊案件:一些犯罪团伙利用电子设备和手机拍摄试题,企图组织高考作弊。案例中,考生在考场使用手机拍摄试题时被当场抓获。教育部提醒,组织考试作弊是刑事犯罪,参与者将面临法律制裁。 2. 携带违禁物品:部分考生违规携带手机进入考场,导致考试成绩无效,并面临处罚。所有通讯工具都被视为作弊工具,携带任何此类设备进入考场都会被严肃处理。 3. 误信高考押题:一些商家通过虚假宣传,利用考生和家长的焦虑心态,推销所谓的‘押题卷’和‘备考攻略’。教育部强调,高考命题逐步改革,重视学生的综合能力和学科素养,押题的成功率几乎为零,反而可能影响考生的备考进度和心理状态。 4. 假冒查询成绩网站:骗子通过伪基站群发短信,提供伪造的高考成绩查询网站,诱骗考生输入个人信息进行诈骗。考生应通过官方渠道查询成绩,避免上当受骗。 教育部还提醒广大考生,避免过度依赖AI进行解题,保持独立思考能力,理性备考。

9
0
0
浏览量316
AI资讯

华为首款鸿蒙折叠 PC 设计揭秘

华为首款鸿蒙折叠 PC——MateBook Fold,早在2018年便有了原型。该产品的设计由华为ID设计师Duncan Liang主导,经过了六到七年的精心打磨,最终成型。MateBook Fold采用了18英寸的大屏设计,定价为23999元。其背后的设计理念力求突破传统PC形态,打造出既轻薄又具有时尚科技感的产品。 在2018年,设计团队开始了不同折叠设计方案的讨论,最终摒弃了传统PC的沉重感,决定将重点放在轻薄便携性上。2019年的设计展上,一体式内置支架设计受到了来自日本设计团队的启发,进一步推动了创新的设计思路。 该设计经过了多个阶段的验证,从2019年的设计展到2022年的最终原型机验证,MateBook Fold的设计逐渐成熟。余承东与何刚在2022年也认可了这一创新,决定将其推向市场。 该款产品的设计旨在满足不同的使用场景,如办公、娱乐和浏览等,通过多场景的细致分析,最终验证了内置支架设计的正确性。这款电脑的设计不仅创新且前瞻,展现了华为在技术与产品设计上的深厚实力。 "华为 MateBook Fold 原型" (https://img.ithome.com/newsuploadfiles/2025/5/88109cc7-2718-4747-a14b-acedcef4f9d9.jpg?x-bce-process=image/quality,q_75/format,f_webp)

16
0
0
浏览量282
AI资讯

AI 搜索“毒化”现实:模型崩溃隐忧,从神器到“垃圾输出”

AI 搜索工具在不断的版本迭代过程中,出现了搜索结果质量下降的现象。尤其是以 Perplexity 为代表的 AI 搜索工具,虽然一度优于传统搜索引擎,如谷歌,但由于模型崩溃(model collapse)现象的出现,搜索结果的准确性和可靠性逐渐丧失。 模型崩溃的根本原因 模型崩溃的根源主要有三大因素:错误累积、稀有数据丢失和反馈循环。错误累积指的是每一代模型继承并放大前代的缺陷;稀有数据丢失使得模型难以处理罕见事件和概念;反馈循环则是强化了狭窄的模式,导致重复或偏见的输出。 检索增强生成技术(RAG) 为了提升 AI 搜索的表现,广泛应用了检索增强生成技术(RAG),使得大型语言模型(LLM)能够从外部数据库提取信息,从而减少幻觉(hallucination)现象。但即便如此,RAG 技术仍然无法完全避免错误的输出。 AI 搜索的影响 随着 AI 模型崩溃的加剧,AI 在各个领域的应用开始显现出“垃圾输入、垃圾输出”的现象,特别是在一些学术和创作内容中。这种现象表明,过于依赖 AI 生成的内容,可能会导致准确性和质量的严重下降,进一步影响整个信息生态的健康发展。 相关图像链接

16
0
0
浏览量296
AI资讯

基准测试揭秘大模型“字数危机”:26 个模型长文本生成普遍拉胯,最大输出长度过度宣传

大语言模型(LLMs)在长度指令遵循上存在显著问题,尤其是在长文本生成任务中表现较差。最新的研究论文《LIFEBENCH: Evaluating Length Instruction Following in Large Language Models》提出了一个全新的基准测试集 LIFEBENCH,专门评估大语言模型在执行长度指令时的能力。 LIFEBENCH:专注长度指令遵循的基准测试 LIFEBENCH是一套评估大语言模型在长度指令下表现的测试集,覆盖从短文到长文的任务,并支持多语种(中文、英文)。测试集通过多种任务类型,如问答、摘要、推理和创意生成,全面揭示模型在长度控制方面的能力边界。 主要特性 - 数据集多样性:包含短文本和长文本场景,以及双语支持。 - 评测指标:LIFEBENCH设计了长度偏差(LD)和长度评分(LS),提供更精准的模型评测。 - 任务与语言影响:模型在不同语言和任务类型下表现差异明显,中文任务普遍表现较差,且存在过度生成现象。 实验结果:大语言模型的“长度危机” 研究对26个主流大语言模型进行了评测,发现大多数模型在长度指令遵循上表现糟糕,特别是长文本生成任务。尽管短文本生成表现相对稳定,但随着生成文本长度增加,模型表现急剧下降,很多模型在长文本生成任务中评分低于40分。 模型“过度宣传”最大输出长度 研究揭示,大多数大语言模型在面对极限长度指令时,生成能力远低于其宣传的“最大输出能力”。仅有少数模型(如Claude系列、Qwen系列)能够勉强达到宣传的输出长度。 长文本生成质量的挑战 大部分模型在长文本生成时表现不佳,生成质量随着文本长度的增加而下降。任务越复杂,模型越倾向于“提前终止”或“拒绝生成”,这暴露了大语言模型在长文本生成中的局限性。 结论 通过LIFEBENCH,研究者能够更全面地评估大语言模型在不同长度指令下的表现,指出当前LLMs在长文本生成上仍有显著问题。要解决这些问题,模型的感知能力、信息处理能力和生成策略都需要进行全面优化。

9
0
0
浏览量301
AI资讯

初探 Deepseek R1-0528 开源模型:AI 编程能力跃升,媲美 OpenAI o3 和 o4-mini

2025年5月29日,深度求索(Deepseek)发布了其最新的DeepSeek-R1-0528开源模型,通过官方交流群邀请用户进行测试。测试结果表明,R1-0528在编程能力、审美设计和代码补全等方面表现卓越,尤其在复杂指令处理和前端页面生成上展现了高精度和高效能。与OpenAI的o3和o4-mini相比,R1-0528在性能上有所提升,能够根据简单提示词快速生成高质量代码,并且在生成复杂前端页面和动态动画时表现出色。R1-0528模型在Extended NYT Connections跑分中达到49.8分,相比初代模型38.6分的成绩有所提高,展现了其在语言理解和推理能力方面的显著进步。此外,R1-0528缩短了推理时长,提供了更加流畅和高效的使用体验。 "图片" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/385254ff-5cd7-4294-9e1f-935614f58898.jpg) DeepSeek-R1-0528还表现出色的代码补全能力,能够精准地输出复杂任务的解决方案,尤其在审美设计方面,也能准确理解和生成设计内容。

14
0
0
浏览量205
AI资讯

第一批追赶AI的人,正在被AI甩开

随着AI的迅猛发展,提示词工程师这一职位的门槛逐渐升高。最初,提示词工程师因其低门槛和高薪资成为许多人转行AI的捷径。然而,随着大模型能力的不断增强,提示词优化的难度逐渐降低,许多AI从业者发现,随着模型的升级,很多工作成果都显得无效。在过去,优化提示词的工作占据了大部分AI产品经理的工作,但现在,更多的工作内容转向了模型的性能优化与数据处理。模型的进化也推动了这个职位的转型,提示词工程师逐渐需要具备更多的产品思维和更广泛的技术背景。如今,AI产品经理和提示词工程师的职能变得越来越相似,提示词工程师不再单纯依赖写提示词,而是要更深入地理解模型的工作原理、业务需求和技术细节,成为跨界的多能型人才。 "Image 1" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/v2_f3627d9f960e435db5ed508e620f5f96@6101715_oswg52484oswg1080oswg661_img_000.jpg) 近年来,随着大模型技术的发展,提示词工程师的角色发生了重要的变化。AI技术的进步让提示词优化的难度显著降低,许多从业者发现,模型的升级可能会使他们的工作成果变得无效。尤其是随着模型理解自然语言、推理与思考能力的增强,传统的提示词工程师逐渐失去了原有的优势。曾经对许多人来说,这个职位是通往AI行业的便捷路径,但如今,AI行业的门槛逐渐提高,转型进入该行业变得更加困难。 这也使得一些曾经的提示词工程师,如万玉磊、陈柳阳和杨佩骏等,开始逐渐转型,朝向更综合、更高层次的岗位迈进,成为更加符合未来AI发展需求的多角色人才。这些变化凸显了AI行业飞速发展的特点,也暴露了职位需求和行业变动的快速性。 随着AI技术进步,提示词工程师不仅需要深刻理解业务需求,还需要掌握更多的技术背景和产品思维,成为真正意义上的技术桥梁和多能型人才。

17
0
0
浏览量248
万码G21XJY5T

开心的飞起哈哈哈😂哈哈哈哈还不够吗

15
0
1
浏览量242
AI资讯

AI是朋友,还是思维控?

本文探讨了AI作为思维工具在现代社会的复杂性。文章的核心观点是,AI并非总是能够提供真实的帮助,它有时可能只是通过合乎逻辑的方式进行‘表演’而非解决问题。文章从个人经验入手,讲述了如何使用AI分析个人问题,并指出AI有时能给出合理但完全相反的解决方案,这使人反思AI的决策背后的真实动机。作者提出,AI的解释能力和推理能力之间的脱节值得警惕,尤其是在涉及决策和逻辑的过程中。文章也引用了相关的研究和调查,揭示了AI与人类互动中潜在的误导性问题。最终,文章强调了保持批判性思维的重要性,不盲目接受AI的‘理性’解释,而是要用自己的标准来评估其可靠性。 核心概念: - AI作为朋友或思维控制者 - 认知资源透支与工作效率的关系 - AI解释与实际决策之间的脱节 - 批判性思维在AI时代的重要性 实践经验与分析: 作者通过与AI的互动,探讨了AI在心理健康方面的潜力与局限性。例如,AI给出的解决方案可能并不总是最适合的,反而有可能是基于算法的策略性表演。 文章通过具体案例,如DeepSeek和Qwen3的反馈,展现了AI如何根据不同的分析路径给出不同的建议,从而引发关于AI真实性能的深思。对于AI是否真的理解人类问题,文章提出了质疑,并引用了相关研究,说明AI的解释能力与其实际行为之间的区别。 结论: AI有时并不会给出最真实的回答,而是通过一套看似合理的逻辑来进行“演戏”。因此,面对AI的建议,我们需要更加谨慎,保持批判性思维,不盲目相信其表面上的合理性。

13
0
1
浏览量495
AI资讯

贸易战下的产业韧性(二):AI大模型的商业“回旋镖”,重新落到了云计算

文章概述 本文探讨了在贸易战的背景下,中国的AI大模型产业如何经历开源商业模式的挑战与机遇,并分析了大模型厂商如何在不稳定的市场环境中找到生存与发展的路径。 1. 开源大模型的商业化挑战 开源大模型被认为是突破技术封锁的关键路径,但其商业化过程面临许多挑战。文章讨论了开发者和投资者在开源过程中可能遇到的困难,特别是与技术适配、维护成本及商业化前景相关的问题。开源虽被看作解决技术“卡脖子”的方案,但许多开源厂商面临着“为爱发电”的困境,无法从中获得应有的回报。 2. 中国厂商的“开源+云计算”商业模式 随着美国加大关税壁垒,中国厂商纷纷将开源大模型与云计算结合,以“免费引流+增值服务”的方式构建商业模式。例如,百度通过文心大模型吸引开发者和企业使用,在使用其模型时,用户需调用百度云服务,这为百度带来了商业收益。这种商业模式类似于房地产行业的低价引流和后续的增值服务,形成了稳定的收入来源。 3. 开源大模型的未来发展 尽管开源大模型在国内市场逐渐成型,但如何处理技术适配和后训练的挑战仍然是一个难题。投资者和开发者对大模型的未来充满谨慎,尤其是在盈利模式不明确的情况下,开源并非唯一的选择,未来可能更多依赖于完善的云计算服务。 4. 商业可持续性的关键 对于开发者和投资者来说,开源大模型的商业化路径依然充满不确定性。文章提出,除了技术能力,云服务的质量和商业模式的可持续性将成为未来大模型市场竞争的重要因素。开发者更倾向于选择有完善云计算服务的平台,而不是单纯的开源模型。 结语 本文总结了中国大模型行业面临的挑战,并指出了商业化道路的重要性。随着市场环境的不断变化,开源大模型的未来发展将与云计算服务的完善紧密相关,尤其是在面对全球竞争和技术封锁的情况下。 "AI大模型图" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/v2_a23d81500d2b463b97da5e2184f5d8de@1689395163_oswg650979oswg1232oswg693_img_png.jpg) "AI开源图" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/v2_8c713e1b2f104118a826c57c2a3aaeb6@1689395163_oswg298255oswg1039oswg693_img_png.jpg)

20
0
0
浏览量510
AI资讯

「阶跃星辰」的一次豪赌

在2025年5月8日的媒体沟通会上,阶跃星辰CEO姜大昕分享了该公司在多模态领域的技术探索及发展计划。阶跃星辰致力于实现多模态技术的理解与生成一体化,认为多模态是实现AGI的关键路径。姜大昕强调,如果多模态的任何方面存在短板,将会延缓AGI的进程。阶跃星辰的模型涵盖了文字、语音、图像、视频等多个模态,其中16款模型是多模态模型。公司认为,推理模型和多模态技术的结合,将为未来的AGI奠定基础。2025年,姜大昕表示阶跃正在着力布局Agent技术,与多个行业巨头如Oppo和吉利汽车合作,推动智能终端领域的发展。姜大昕指出,DeepSeek的成功让公司重新思考了AI产品的流量增长逻辑,推翻了传统的投流增长方式。 姜大昕进一步提到,AGI的实现需要通过技术路线的收敛,目前多模态技术正在探索从语言到视觉领域的融合,尤其是在生成与理解的一体化方面,技术的突破将推动智能体的商业化。 他还分享了DeepSeek对投流逻辑的颠覆性见解,强调模型突破早于商业化,尤其在多模态和推理模型的结合上,可能会引领技术的重大进步。在合作方面,阶跃与多家头部企业合作,致力于推动多模态智能终端的发展,为下一代智能体技术奠定基础。 "Image 1" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/v2_485096583676442da88c3dd6121c6e32@2057308263_oswg935538oswg1080oswg810_img_000.jpg) "Image 2" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/v2_b83cecd07c174ddfa81127b3aa5f36ff@2057308263_oswg81394oswg1080oswg810_img_000.jpg) "Image 3" (https://img.36krcdn.com/hsossms/20250512/v2_d7efb4ddc8214da1bac94d341710787d@2057308263/oswg649004oswg1080oswg810_img_000?x-oss-process=image/format,jpg/interlace,1) "Image 4" (https://img.36krcdn.com/hsossms/20250512/v2_b8b5466008c449f082c2518ac0ed9781@2057308263/oswg53751oswg900oswg335_img_000?x-oss-process=image/format,jpg/interlace,1) "Image 5" (https://img.36krcdn.com/hsossms/20250512/v2_a109ed8e0e4c49ecb9d52772fc6e6e33@2057308263/oswg135185oswg900oswg296_img_000?x-oss-process=image/format,jpg/interlace,1)

12
0
0
浏览量300
AI资讯

哈佛新论文揭示 Transformer 模型与人脑“同步纠结”全过程,AI也会犹豫、反悔?

哈佛新论文揭示 Transformer 模型与人脑“同步纠结”全过程,AI也会犹豫、反悔? 近期,哈佛大学、布朗大学及图宾根大学的研究者们联合发布了关于 Transformer 模型与人类大脑认知处理相似性的研究,探索了 AI 模型的内部处理过程与人类认知之间的关联。 这项研究集中在分析 Transformer 模型的每一层处理动态,揭示了 AI 在处理信息时与人类大脑的实时思维路径存在显著相似性。 研究目的 该研究的核心问题是:AI 的处理过程是否能与人类认知处理过程相对接。通过对 Transformer 模型每一层输出的观察,研究者们探讨了 AI 在任务中的“犹豫”与“反悔”,这与人类在进行决策时的思维过程非常相似。 AI 和人脑的相似性 研究发现,AI 的每一层都类似于人类在做决定时的思考过程。例如,AI 在面临不确定性时的反应与人类的决策犹豫非常相似。当 AI 做出初步决策后,经过进一步处理,它会“纠正”先前的判断,就像人类在选择答案时的反复思考。 "图9" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/v2_ab917571c3be45999b73e7d9f516644f@000000_oswg43626oswg745oswg357_img_000.jpg) 关键实验结果 研究中的实验表明,AI 模型和人类在回答某些特定问题时的“认知弯路”高度相似。例如,在回答“伊利诺伊州的首都”这一问题时,AI 和人类都会先选择错误的答案,再经过反思最终做出正确判断。 "图10" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/v2_145fc29c84914eb8bf386f32d4e44b9f@000000_oswg66528oswg885oswg482_img_000.jpg) 这篇论文不仅强调了 AI 和人脑在决策过程中的相似性,还提出了新的观点:AI 的“思考”过程实际上能被比作人类大脑的实时认知处理过程。 实验分析:AI 和人脑的同步性 通过对多个认知任务的对比,研究者发现 AI 和人类在任务处理的过程中存在相似的“走弯路”现象。例如,在动物分类任务中,AI 和人类都可能先选择错误的分类(如把鲸鱼分类为鱼类),然后再经过纠正最终做出正确决策。 "图11" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/v2_604b14f7f7b9452fbcd99cd936ec8377@000000_oswg65584oswg660oswg384_img_000.jpg) 总结 研究揭示了 Transformer 模型与人类认知之间的深刻联系,为我们理解 AI 模型如何处理信息提供了新的视角。AI 的“犹豫”和“反悔”与人类思维过程中的不确定性和决策修正惊人地相似,这为未来 AI 研究提供了丰富的启示。 "图12" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/v2_b965dd37c2ea49a799c4531442ad6b8d@000000_oswg141044oswg709oswg629_img_000.jpg)

38
0
0
浏览量712
AI资讯

创业者想拜拜梁文锋

自2024年1月20日DeepSeek R1发布以来,DeepSeek已经成为了大模型领域的顶级明星。在这100天的时间里,DeepSeek不仅展示了中国AI技术的强大,还影响了全球AI的发展方向。文章讲述了DeepSeek如何带动了一些AI创业者的融资和商业成功,尤其是李泼和张旸这两位创业者在DeepSeek的助力下扭转了自己的创业命运。尤其是在海外融资方面,DeepSeek成为了中国AI团队的名片,证明了国内AI技术已经追赶上了国际水平。 然而,随着DeepSeek的火爆,AI创业领域也开始出现激烈的竞争。许多创业者和投资者在DeepSeek的带动下,进入了AI应用和具身智能等领域。尽管如此,创业者们仍然面临着技术迭代的巨大压力。DeepSeek的快速发展和不断升级的技术能力,迫使创业者们不断更新产品和服务以保持竞争力。 文章中也提到,虽然DeepSeek的成功激发了市场的兴奋,但也带来了一定的商业化压力。许多公司在商业化过程中遇到了难题,尤其是在降低成本和提升性能方面的竞争越来越激烈。 "Image 1" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/v2_da1ea8d8c5404ec1bea21f13eda74317@000000_oswg70760oswg969oswg577_img_000.jpg) 文章总结了DeepSeek带来的影响,不仅促使AI创业者们在技术创新上加速,还让整个AI市场进入了一个新的竞争阶段。然而,DeepSeek的出现也让大模型创业领域的壁垒进一步提升,许多投资者开始转向AI应用和具身智能等垂直领域。 "Image 2" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/v2_df0110cbe9384bfcb6df37210e1bad9c@000000_oswg353123oswg566oswg381_img_000.jpg) DeepSeek的成功并非偶然,它代表了中国在AI技术领域的进步,而它的影响力正在扩展到全球市场。随着技术的发展,创业者们不仅要与大厂竞争,还要在激烈的市场中找到自己的位置,克服商业化的挑战。 "Image 3" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/v2_32613d8c1c10463a9e1c22b16d08892b@000000_oswg110726oswg579oswg322_img_000.jpg)

12
0
0
浏览量333
AI资讯

一个「always」站在大模型技术C位的传奇男子

沙哥(Noam Shazeer)是Transformer模型的核心贡献者之一,曾多次预见并推动AI领域的重要技术突破。尽管他并不频繁出现在公众视野中,但他的技术贡献却深远影响了现代AI,尤其是在自然语言处理和深度学习领域。 沙哥的最著名贡献之一是《Attention Is All You Need》论文,这是Transformer模型的奠基之作,该模型在大语言模型(LLM)中得到广泛应用。此外,沙哥还提出了Mixture of Experts(MoE)和GShard等概念,进一步推动了大规模模型的扩展。 他在研究中不仅关注理论创新,也注重实际应用,特别是在优化大规模模型的训练和推理效率方面。沙哥还提出了Adafactor优化器,这一工具在谷歌PaLM等大规模模型中发挥了重要作用。 除了在学术上的贡献,沙哥还积极推动了AI技术的商业化。他曾参与创办Character.AI公司,这家公司致力于个性化的人工智能角色,尽管面临融资困难,最终被谷歌以27亿美元收购。 沙哥的成长经历同样传奇,从3岁自学算术,到1994年国际数学奥林匹克(IMO)满分,再到成为谷歌的核心技术人员,沙哥的技术敏感性和前瞻性使他在AI领域占据了举足轻重的地位。 沙哥的影响力不仅局限于学术界,他在商业化AI和大模型优化方面的贡献,也为行业带来了深远的影响。他的工作不仅在学术界引起了广泛关注,也为AI技术的实践应用铺平了道路。

12
0
0
浏览量355
AI资讯

谷歌搜索,天崩了!ChatGPT不讲武德抢流量

最近的数据监控网站Similarweb发布了ChatGPT令人惊叹的流量增长数据。在2025年4月,ChatGPT的流量实现了13.04%的环比增长,并成功超越了社交平台X(原Twitter),成为全球访问量第五大网站。 特别是在谷歌、YouTube、Instagram等传统平台的流量普遍下降的背景下,ChatGPT的逆势增长表现尤为引人注目。ChatGPT已连续增长四个月,访问量在2025年4月达到历史新高,突破了50亿次的访问量,且同比增长了182%。 该平台的流量主要集中在工作日,周末的使用量显著下降,这表明用户大多将ChatGPT用于工作和学习任务。尽管如此,ChatGPT的用户覆盖面不断扩大,目标直指全球流量排名第4的Instagram。 在与其他AI平台的竞争中,ChatGPT表现出色,其用户忠诚度较高,且许多用户几乎不会使用其他AI工具。与其他AI平台相比,ChatGPT的用户群体相对稳定,约86%的Claude用户也在使用ChatGPT,74%的Perplexity用户也使用ChatGPT,这显示了ChatGPT的功能优势。 尽管如此,OpenAI的首席执行官Sam Altman承认,ChatGPT在取代谷歌方面仍面临巨大的挑战,谷歌依然是搜索领域的巨头,且其强大的AI团队和技术基础设施仍使其具有强大的竞争力。 随着ChatGPT继续取得突破,谷歌面临的竞争压力也不断增加。谷歌的搜索流量出现下滑,市场占有率也有所下降,这让谷歌在未来可能面临更多挑战。

10
0
0
浏览量466