苹果WWDC25:修补AI功能Siri个性化“还需更多时间”

日期:2025-07-24 15:31:52 浏览量:

  此次WWDC25上★◆◆,苹果将人工智能实时翻译(Live Translation)功能深度集成到“信息”★■◆■★、■★■★◆“FaceTime◆■◆◆”和电话等核心通信应用中,用户可以使用该集成功能自动翻译“信息◆★”应用中的文本◆■,同时在“电话”应用中听到语音翻译。在“Face Time”应用中★◆■,苹果会在用户聆听对话伙伴说话时显示实时翻译的字幕。

  “他们从之前非常有远见的抢在很多人之前谈论智能体■◆★■,到现在意识到,最终他们需要做的是兑现一年前提出的目标,”Technalysis Research首席分析师鲍勃·奥唐纳(Bob ODonnell)表示。

  视觉智能(Visual Intelligence)也宣布升级,不仅能通过摄像头识别现实世界的物体,还能分析屏幕上的任何内容。用户只需按下截图快捷键◆★◆■■,即可调出视觉智能,对当前屏幕内容(包括截图、照片、网页等)进行搜索◆■◆★■◆、提取事件信息◆■■★■★、识别商品并在Google、Etsy等平台查找同类产品,或直接向ChatGPT提问,极大提升了信息获取和内容操作效率◆◆★■。

  在今年3月,苹果正式宣布推迟Siri的发布,称Siri更新发布时间将比预期更长■★◆★■★。该公司还将机器学习和人工智能战略副总裁约翰·詹南德雷亚(John Giannandrea)从Siri项目中撤出,并由曾参与Vision Pro项目开发的迈克·罗克韦尔(Mike Rockwell )负责■■。此次人事变动表明■■◆◆,该公司在重大产品发布遭遇挫折后,正试图重回正轨。这也表明苹果的人工智能技术落后于OpenAI■◆◆、谷歌和Anthropic等竞争对手,令投资者感到担忧。

  值得一提的是,苹果宣布将允许第三方应用程序开发人员访问Apple Intelligence使用的设备上的大语言模型◆◆◆■★■,这意味着iOS用户可以在第三方应用上使用更多AI功能■★。

  北京时间6月10日凌晨1点,苹果在美国加州库比蒂诺的Apple Park正式揭幕WWDC25全球开发者大会。

  在今年的WWDC25上,苹果也宣布更新Apple Intelligence的一系列新功能,包括表情符号Genmoji和图乐园Image Playground的升级等★★■,这些功能将与iOS 26和该公司其他更新的操作系统一同发布。

  苹果也表示正在加深与OpenAI的合作★◆★★■■,宣布将ChatGPT的图像生成功能添加到其Image Playground应用程序中。苹果还表示,未经用户许可,用户数据不会与OpenAI共享,而是仅在本地运行。

  有外媒评论指出★■■◆◆,“来年■★★◆”似乎意味着,苹果在2026年前不会有相关新的动态★★◆◆■★。这在新模型、更新和升级换代速度频繁的时代是一个重大延迟。

  苹果曾在WWDC24首次发布全新设计的个性化Siri,号称“苹果的下一个重大举措◆★■”,表示Siri能够理解你的◆★◆■“背景”,比如你的人际关系、沟通方式◆◆、日常生活等★◆■■◆。此外,该助手也将更加实用◆■◆■◆◆,允许用户在应用程序内和跨应用程序采取行动。

  本次更新中◆★■,苹果软件工程高级副总裁克雷格·费德里吉(Craig Federighi )在主题演讲中只是简短地提到了 Siri 的更新,他表示:“正如我们之前分享的,我们将继续努力,提供让 Siri 更加个性化的功能。这项工作需要更多时间才能达到我们的高质量标准■★■◆,我们期待在来年分享更多相关信息。◆◆★■■”

  尽管在本次WWDC25 苹果带来了一系列规模虽小但非常务实的 AI 软件升级,包括名为“液态玻璃”(“Liquid Glass”)的新外观,从信息和通话中的实时翻译功能到 Apple Watch 的个性化指导等,但苹果却对一款备受期待的产品保持沉默:更加个性化、由人工智能驱动的Siri★★★◆■,这款产品在去年的大会上曾首次亮相■★■★■★。

  这与苹果去年提出的愿景形成了鲜明对比。去年◆◆,苹果虽首次公开提出★★◆◆■“Apple Intelligence”战略,但核心功能包括全新Siri的推出不断跳票。2024年WWDC上公布的AI功能多为业界通用项■★,如文本生成、图片生成及通知摘要整理,并未形成显著差异化优势,现有AI体验乏善可陈,用户反馈普遍失望。

  北京时间6月10日凌晨1点★◆◆◆■,苹果在美国加州库比蒂诺的ApplePark正式揭幕WWDC25全球开发者大会★★。

  在此次WWDC25大会拉开帷幕之际,苹果公司正面临着一系列前所未有的技术和监管挑战■★。