
医药外企
【诺和诺德公司简介】 1923 年创立于丹麦,业务覆盖 170 + 国家,全球领先生物制药企业,以糖尿病治疗、肥胖症及罕见病创新疗法闻名。1962 年进入中国,1994 年成立诺和诺德(中国)制药,布局天津生产基地及北京研发中心,2023 年全球营收超 2,300 亿丹麦克朗,中国区持续保持高速增长。 🎁【员工福利】 六x一金 + 补充商业保x,覆盖员工及家属医疗、重疾保障 13 xin + 绩效奖金,提供 12 天带xin年假、弹性工时及远程办公支持 免费体检、年度旅游、节日礼金及健康管理计划 系统化培训(含管理培训生项目),双通道晋升机制 + 跨部门转岗机会 员工关怀:生育 / 结婚礼金、心理健康咨询及全球化职业发展支持 🌼【企业文化】 ▫️ 使命:驱动改变,战胜糖尿病、肥胖症及其他严重慢性疾病 ▫️ 价值观:以患者为中心,坚守创新、包容、可持续发展 ▫️ 担当:2050 年实现全价值链碳中和,发起 “循环零污染” 战略,支持全球弱势患者可及治疗 💼【工作氛围】 ✨ 数字化赋能研发与生产,鼓励跨部门协作(如 AI 辅助药物设计) ✨ 开放透明的晋升体系,定期举办创新挑战赛及全球项目分享会 ✨ 国际化团队(员工来自 80 + 国家),配备多元文化培训及职业导师计划 ✨ 倡导 “尊重包容” 文化,通过弹性工作制、健康活动营造平衡职场环境 宝宝,开门,接offer啦, 专注给宝宝们整理外企资讯, 求职|面经|岗位|…… 感兴趣的宝宝记得关注我呀

程序员搞接单副业怎么样
各种网站小程序数据分析接单群-有门槛-需要加

问题多多
学历不好的,工作多年,如何找工作

hr问应聘者最大的优点和缺点是啥?你跳槽太多是什么原因?该如何回答比较好呢

希望帮我多多推简历,拜谢拜谢,拜谢

大家好,请多关照 大家好,请多关照 大家好,请多关照 大家好,请多关照

#免费梅州#梅州人才驿站 求职分享|听说了吗,到广东梅州找工作真的有免费住宿!申请便捷,审批高效,在梅州求职创业的朋友一定不要错过这个福利! 申请条件:属全日制大专以上学历、高级工以上或初级职称以上的非本地求职创业人员,可以向当地人社部门申请求职期间“免费住宿”。 申请渠道:“梅州人才驿站”公众号 还有创业大礼包!符合条件的投资者和创业者,还可以向当地相关部门申请“免费生产”“免费创业空间”“免费办公”“免费展销”“免费住宿”。“来梅州,就业有补贴、创业有扶持、住房有保障,高端人才福利更多!”结合“百万英才汇南粤”,聚焦“免费梅州”,梅州向广大青年人才发出诚挚邀约!

消息称 Meta 计划让 AI 接管 90% 产品风险评估,取代人工审核
Meta计划将高达90%的风险评估工作交由AI完成,包括涉及青少年风险和暴力内容等敏感领域。这一变革的目的是通过AI加快审核流程,减少人工审核的负担。尽管AI审核能够快速处理大量数据,但员工警告称,这种方式可能会忽视一些人工审核能识别的严重风险。Meta的这一举措主要针对Instagram和WhatsApp等社交媒体平台,以提升效率。然而,一些Meta的前高管指出,减少人工审核力度可能导致更高的风险,尤其是在产品变更带来的潜在问题没有得到及时识别的情况下。Meta表示,尽管AI系统处理低风险内容,但对于复杂或新颖的问题,公司仍然会依赖人工审核。 "Image 4" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/11e6934f-6aa8-4945-b97f-33b70d733122.jpg) Meta的人工审核任务长期以来主要针对产品发布前的风险评估,然而,随着AI的引入,Meta大幅度增加了对AI系统的依赖。通过填写调查问卷并提交给AI进行风险评估,Meta的产品团队现在能够快速得到风险评估的“即时决策”。然而,这种快速决策也带来了一些挑战,前高管担心过度依赖AI可能带来无法预见的风险,尤其是在产品发布后可能出现的问题。Meta回应称,AI将主要处理低风险决策,而对于复杂且新颖的风险,仍会依赖人工专家进行评估。

无人再谈AI六小龙
2025年行将过半,之前还热闹非凡的AI六小龙,几乎从舆论场中消失:再没有人特意提起这个称号。DeepSeek的冲击只是一方面。更重要的是,原本被冠以六小龙称号的队伍中,已经有人明显掉队:零一万物将超大模型交给了阿里训练,明确不再追逐AGI,放弃预训练转向应用。李开复在接受采访时表示:“大家都看得很清楚,只有大厂能够烧超大模型。” 百川智能则专注医疗垂类赛道,原计划对标OpenAI,但基础大模型进入了静默期,不再更新。剩下的智谱AI、MiniMax、月之暗面和阶跃星辰,也失去了资本和技术底气,曾经的AI六小龙已经变成了新的“AI四小强”。 随着ChatGPT的崛起,零一万物在2023年成立后,成为六小龙中的最后一员。行业对“AI六小龙”的评价和认可开始升温,六小龙的技术优势也逐渐被大厂赶超。随着大厂如阿里、字节的加入,六小龙的先发优势被完全超越。 这些创企曾有雄心壮志,力图改变世界,但在DeepSeek等开源模型的冲击下,六小龙的技术迭代和商业化遇到了前所未有的挑战。尽管这些创企中依旧有不少技术突破,但随着高管离职和融资停滞,很多曾经的AI明星企业开始面临倒退。 总之,AI六小龙的曾经风光不再,当前的四小强依然在尝试寻找新的定位与出路,然而面对资本和技术的双重压力,它们的未来依然充满不确定性。

Claude 团队打开大模型“脑回路”,推出开源 LLM 思维可视化工具
Claude 团队推出了一种名为“电路追踪”(circuit tracing)的开源工具,用于帮助理解大型语言模型(LLM)的内部工作原理,特别是如何处理信息并做出决策。该工具通过生成归因图(attribution graphs)来展示模型的内部神经网络,帮助研究人员跟踪和分析模型行为。 该工具的核心特性是能够干预节点的激活值,并观察模型输出的变化,从而验证各个节点的功能分工。例如,研究人员可以通过修改激活值并观察模型输出的变化,来解码和验证模型的“决策逻辑”。 工具支持与主流的开源模型兼容,并允许用户通过Neuronpedia提供的前端界面进行交互式的探索和可视化。该项目仅在GitHub发布不到24小时,就已获得400+星标,说明其受到了开发者社区的高度关注。 研究人员还展示了通过该工具进行多步推理和多语言电路追踪的方法,进一步揭示了模型在不同语言下的处理路径。这种方法能显著提高我们对LLM行为的理解,帮助开发者更好地优化和调试模型。 在实际应用中,用户能够生成自定义的归因图并在交互式前端上进行分析和分享。这种工具不仅适用于模型分析,还能为LLM研究提供更深入的洞察。 多个示例展示了该工具在不同的推理任务和多语言电路中的应用,包括对不同模型如Gemma 2(2B)和Claude 3.5 Haiku的归因分析,展示了不同输入如何影响模型的决策。 此外,研究人员也探讨了如何通过对节点的干预,验证对模型行为的假设。

让AI学着“看菜下碟”,港中大等新框架让推理长度减少90%,准确率反增17%
让AI学着“看菜下碟”,港中大等新框架让推理长度减少90%,准确率反增17% 近年来,人工智能领域的推理效率一直是研究的热点。香港中文大学与新加坡国立大学的研究者提出了TON(Think Or Not)框架,旨在提高视觉语言模型(VLM)的推理效率。 "Image 10" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/v2_4305707477d947baa72df6efc267c0e7@46958_oswg80446oswg693oswg168_img_000.jpg) 核心创新:引入“是否思考”的决策 TON框架的核心在于让模型决定何时思考。与传统的强化学习方法(如GRPO)不同,TON框架通过两阶段训练机制让模型学会在面对简单问题时跳过冗余的推理过程,而面对复杂问题时进行详细推理。研究表明,TON不仅有效减少了推理过程的长度,还提升了准确率。 实验结果:推理效率大幅提升,准确率反而提升 实验验证了TON框架的有效性,尤其是在CLEVR、GeoQA和AITZ等任务上,TON框架的平均推理输出长度减少了多达90%。尽管推理长度减少,模型的准确率却不降反升,某些任务上准确率提升了最高17个百分点。 "Image 11" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/v2_d2521f44e1c44f3bb446e9df953a5e33@46958_oswg19279oswg569oswg102_img_000.jpg) TON框架不仅提高了推理效率,减少了计算开销,也可能为多模态助手、机器人等实时互动应用提供了显著的性能提升。 “按需思考”模式:让AI更接近人类的思维方式 TON框架引入的“按需思考”模式,能够让AI在面临不同难度的问题时调整推理策略。对于简单问题,模型能够迅速跳过不必要的推理,而在处理复杂问题时则保持详细的推理过程。 这一创新的推理策略,不仅提升了推理效率,还能够让AI系统在与人类互动时表现得更加人性化。

OpenAI o3 AI 推理模型成关键“侦探”,发现 Linux 内核高危漏洞
安全专家 Sean Heelan 于 5 月 22 日发布博文,报道在 OpenAI 的 o3 推理模型帮助下,他成功发现了 Linux 内核重大漏洞,追踪编号为 CVE-2025-37899。Heelan 原本只是打算通过代码审计,测试 OpenAI 的 o3 推理模型,却意外发现 AI 能自主识别复杂的“use-after-free”漏洞,这一漏洞出现在 Linux 内核的 SMB 协议实现中。 “Use-after-free”是因为线程同步不当导致的内存损坏问题,可能引发内核内存破坏甚至任意代码执行。Heelan 提到,漏洞发生在处理 SMB 的“logoff”命令时,由于一个线程释放了对象,另一个线程仍在访问该对象,缺乏适当同步,导致了“use-after-free”问题。 Heelan 还对比了已知漏洞 CVE-2025-37778(Kerberos 认证漏洞),发现 o3 模型在分析约 3300 行代码时,识别率超越了其他模型,成功率最高提升三倍。他进一步测试,扩大代码规模至约 1.2 万行,o3 仍然成功定位了 Kerberos 漏洞并发现了新的“logoff”漏洞。 漏洞被发现后,Heelan 立即上报并迅速得到响应,补丁已合并到所有仍在维护的内核分支中。用户只需从发行版拉取更新即可修复漏洞。 "Image 5" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/chatgpt-found-kernel-vulnerability-patch.jpg) 文章中的广告声明被删除,原文包括外部链接和商业推广已被省略。

DeepSeek-R1-0528 更新官方详解:思考更深、推理更强,整体表现接近 o3
DeepSeek-R1-0528 更新官方详解:思考更深、推理更强,整体表现接近 o3 DeepSeek-R1-0528 是 DeepSeek R1 模型的最新版本,宣布完成小版本升级,用户可以通过官方网站、App 或小程序体验最新版本的“深度思考”功能。API 调用方式保持不变。 深度思考能力强化 该模型基于 2024 年 12 月发布的 DeepSeek V3 Base 模型,并在后训练过程中投入了更多算力,显著提升了思维深度与推理能力。新版模型在数学、编程与通用逻辑等多个基准测评中取得了优异成绩,整体表现接近国际顶尖模型如 o3 和 Gemini-2.5-Pro。 "DeepSeek-R1-0528 在评测中的表现" (https://img.ithome.com/newsuploadfiles/2025/5/c88435e8-a523-4bdd-8510-f0b12b0bb04c.png?x-bce-process=image/quality,q_75/format,f_webp) 与旧版 R1 相比,新版模型在复杂推理任务中的表现得到了显著提升。例如,在 AIME 2025 测试中,新版模型的准确率提升至 87.5%。 幻觉改善与创意写作 新版 R1 模型针对“幻觉”问题进行了优化,提升了改写润色、总结摘要和阅读理解的准确性,幻觉率降低了 45% 至 50%。同时,模型还对创意写作方面进行了增强,能更好地生成长篇、结构完整的议论文、小说等。 API 更新 新版 API 支持更强的功能,包括对思考过程的查看、Function Calling 和 JsonOutput 支持。max_tokens 参数已调整为最大支持 64K 的输出。 模型开源 DeepSeek-R1-0528 的权重和开源版本参数与之前版本相同,支持 128K 的上下文长度。该版本继续使用 MIT License 进行开源,用户可以通过模型蒸馏等方式进行训练。 详情请参考 "官方API指南" (https://api-docs.deepseek.com/zh-cn/guides/reasoning_model) 。

教育部发布 2025 年高考预警信息:靠 AI 或所谓“专家”押中题目可能性极小
教育部近日发布了2025年高考的预警信息,提醒考生和家长警惕网络上的虚假高考信息和不法分子的诈骗行为。教育部特别强调,不要相信高考押题的谣言,特别是利用AI或所谓‘专家’预测试题的行为极不可靠。近年来,一些不法商家通过网络宣传‘精准押题’、‘AI押题’等手段诱骗考生和家长购买假冒的备考资料。教育部还提醒,考生应提高辨识能力,避免参与任何形式的作弊或违法活动。 具体警示案例包括: 1. 高考作弊案件:一些犯罪团伙利用电子设备和手机拍摄试题,企图组织高考作弊。案例中,考生在考场使用手机拍摄试题时被当场抓获。教育部提醒,组织考试作弊是刑事犯罪,参与者将面临法律制裁。 2. 携带违禁物品:部分考生违规携带手机进入考场,导致考试成绩无效,并面临处罚。所有通讯工具都被视为作弊工具,携带任何此类设备进入考场都会被严肃处理。 3. 误信高考押题:一些商家通过虚假宣传,利用考生和家长的焦虑心态,推销所谓的‘押题卷’和‘备考攻略’。教育部强调,高考命题逐步改革,重视学生的综合能力和学科素养,押题的成功率几乎为零,反而可能影响考生的备考进度和心理状态。 4. 假冒查询成绩网站:骗子通过伪基站群发短信,提供伪造的高考成绩查询网站,诱骗考生输入个人信息进行诈骗。考生应通过官方渠道查询成绩,避免上当受骗。 教育部还提醒广大考生,避免过度依赖AI进行解题,保持独立思考能力,理性备考。

华为首款鸿蒙折叠 PC 设计揭秘
华为首款鸿蒙折叠 PC——MateBook Fold,早在2018年便有了原型。该产品的设计由华为ID设计师Duncan Liang主导,经过了六到七年的精心打磨,最终成型。MateBook Fold采用了18英寸的大屏设计,定价为23999元。其背后的设计理念力求突破传统PC形态,打造出既轻薄又具有时尚科技感的产品。 在2018年,设计团队开始了不同折叠设计方案的讨论,最终摒弃了传统PC的沉重感,决定将重点放在轻薄便携性上。2019年的设计展上,一体式内置支架设计受到了来自日本设计团队的启发,进一步推动了创新的设计思路。 该设计经过了多个阶段的验证,从2019年的设计展到2022年的最终原型机验证,MateBook Fold的设计逐渐成熟。余承东与何刚在2022年也认可了这一创新,决定将其推向市场。 该款产品的设计旨在满足不同的使用场景,如办公、娱乐和浏览等,通过多场景的细致分析,最终验证了内置支架设计的正确性。这款电脑的设计不仅创新且前瞻,展现了华为在技术与产品设计上的深厚实力。 "华为 MateBook Fold 原型" (https://img.ithome.com/newsuploadfiles/2025/5/88109cc7-2718-4747-a14b-acedcef4f9d9.jpg?x-bce-process=image/quality,q_75/format,f_webp)

AI 搜索“毒化”现实:模型崩溃隐忧,从神器到“垃圾输出”
AI 搜索工具在不断的版本迭代过程中,出现了搜索结果质量下降的现象。尤其是以 Perplexity 为代表的 AI 搜索工具,虽然一度优于传统搜索引擎,如谷歌,但由于模型崩溃(model collapse)现象的出现,搜索结果的准确性和可靠性逐渐丧失。 模型崩溃的根本原因 模型崩溃的根源主要有三大因素:错误累积、稀有数据丢失和反馈循环。错误累积指的是每一代模型继承并放大前代的缺陷;稀有数据丢失使得模型难以处理罕见事件和概念;反馈循环则是强化了狭窄的模式,导致重复或偏见的输出。 检索增强生成技术(RAG) 为了提升 AI 搜索的表现,广泛应用了检索增强生成技术(RAG),使得大型语言模型(LLM)能够从外部数据库提取信息,从而减少幻觉(hallucination)现象。但即便如此,RAG 技术仍然无法完全避免错误的输出。 AI 搜索的影响 随着 AI 模型崩溃的加剧,AI 在各个领域的应用开始显现出“垃圾输入、垃圾输出”的现象,特别是在一些学术和创作内容中。这种现象表明,过于依赖 AI 生成的内容,可能会导致准确性和质量的严重下降,进一步影响整个信息生态的健康发展。 相关图像链接

基准测试揭秘大模型“字数危机”:26 个模型长文本生成普遍拉胯,最大输出长度过度宣传
大语言模型(LLMs)在长度指令遵循上存在显著问题,尤其是在长文本生成任务中表现较差。最新的研究论文《LIFEBENCH: Evaluating Length Instruction Following in Large Language Models》提出了一个全新的基准测试集 LIFEBENCH,专门评估大语言模型在执行长度指令时的能力。 LIFEBENCH:专注长度指令遵循的基准测试 LIFEBENCH是一套评估大语言模型在长度指令下表现的测试集,覆盖从短文到长文的任务,并支持多语种(中文、英文)。测试集通过多种任务类型,如问答、摘要、推理和创意生成,全面揭示模型在长度控制方面的能力边界。 主要特性 - 数据集多样性:包含短文本和长文本场景,以及双语支持。 - 评测指标:LIFEBENCH设计了长度偏差(LD)和长度评分(LS),提供更精准的模型评测。 - 任务与语言影响:模型在不同语言和任务类型下表现差异明显,中文任务普遍表现较差,且存在过度生成现象。 实验结果:大语言模型的“长度危机” 研究对26个主流大语言模型进行了评测,发现大多数模型在长度指令遵循上表现糟糕,特别是长文本生成任务。尽管短文本生成表现相对稳定,但随着生成文本长度增加,模型表现急剧下降,很多模型在长文本生成任务中评分低于40分。 模型“过度宣传”最大输出长度 研究揭示,大多数大语言模型在面对极限长度指令时,生成能力远低于其宣传的“最大输出能力”。仅有少数模型(如Claude系列、Qwen系列)能够勉强达到宣传的输出长度。 长文本生成质量的挑战 大部分模型在长文本生成时表现不佳,生成质量随着文本长度的增加而下降。任务越复杂,模型越倾向于“提前终止”或“拒绝生成”,这暴露了大语言模型在长文本生成中的局限性。 结论 通过LIFEBENCH,研究者能够更全面地评估大语言模型在不同长度指令下的表现,指出当前LLMs在长文本生成上仍有显著问题。要解决这些问题,模型的感知能力、信息处理能力和生成策略都需要进行全面优化。

初探 Deepseek R1-0528 开源模型:AI 编程能力跃升,媲美 OpenAI o3 和 o4-mini
2025年5月29日,深度求索(Deepseek)发布了其最新的DeepSeek-R1-0528开源模型,通过官方交流群邀请用户进行测试。测试结果表明,R1-0528在编程能力、审美设计和代码补全等方面表现卓越,尤其在复杂指令处理和前端页面生成上展现了高精度和高效能。与OpenAI的o3和o4-mini相比,R1-0528在性能上有所提升,能够根据简单提示词快速生成高质量代码,并且在生成复杂前端页面和动态动画时表现出色。R1-0528模型在Extended NYT Connections跑分中达到49.8分,相比初代模型38.6分的成绩有所提高,展现了其在语言理解和推理能力方面的显著进步。此外,R1-0528缩短了推理时长,提供了更加流畅和高效的使用体验。 "图片" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/385254ff-5cd7-4294-9e1f-935614f58898.jpg) DeepSeek-R1-0528还表现出色的代码补全能力,能够精准地输出复杂任务的解决方案,尤其在审美设计方面,也能准确理解和生成设计内容。

第一批追赶AI的人,正在被AI甩开
随着AI的迅猛发展,提示词工程师这一职位的门槛逐渐升高。最初,提示词工程师因其低门槛和高薪资成为许多人转行AI的捷径。然而,随着大模型能力的不断增强,提示词优化的难度逐渐降低,许多AI从业者发现,随着模型的升级,很多工作成果都显得无效。在过去,优化提示词的工作占据了大部分AI产品经理的工作,但现在,更多的工作内容转向了模型的性能优化与数据处理。模型的进化也推动了这个职位的转型,提示词工程师逐渐需要具备更多的产品思维和更广泛的技术背景。如今,AI产品经理和提示词工程师的职能变得越来越相似,提示词工程师不再单纯依赖写提示词,而是要更深入地理解模型的工作原理、业务需求和技术细节,成为跨界的多能型人才。 "Image 1" (https://wm-ai.oss-cn-shanghai.aliyuncs.com/test/v2_f3627d9f960e435db5ed508e620f5f96@6101715_oswg52484oswg1080oswg661_img_000.jpg) 近年来,随着大模型技术的发展,提示词工程师的角色发生了重要的变化。AI技术的进步让提示词优化的难度显著降低,许多从业者发现,模型的升级可能会使他们的工作成果变得无效。尤其是随着模型理解自然语言、推理与思考能力的增强,传统的提示词工程师逐渐失去了原有的优势。曾经对许多人来说,这个职位是通往AI行业的便捷路径,但如今,AI行业的门槛逐渐提高,转型进入该行业变得更加困难。 这也使得一些曾经的提示词工程师,如万玉磊、陈柳阳和杨佩骏等,开始逐渐转型,朝向更综合、更高层次的岗位迈进,成为更加符合未来AI发展需求的多角色人才。这些变化凸显了AI行业飞速发展的特点,也暴露了职位需求和行业变动的快速性。 随着AI技术进步,提示词工程师不仅需要深刻理解业务需求,还需要掌握更多的技术背景和产品思维,成为真正意义上的技术桥梁和多能型人才。

开心的飞起哈哈哈😂哈哈哈哈还不够吗