
Apple 智能的新功能
深入探索前沿的关键技术和功能。
Foundation Models 框架
现在,你可以直接访问 Apple 智能核心的设备端基础模型,通过 Foundation Models 框架打造智能、私密且无需互联网连接的体验。借助对 Swift 的原生支持,只需三行代码即可利用该模型。使用这个框架,你可以通过文本提取、摘要等模型功能,为 App 中的智能功能提供支持。框架中内置了引导式生成、工具调用等功能,让你能够更轻松地在现有 App 和游戏中实现智能体验。
视觉智能
除了 iPhone 摄像头之外,视觉智能还延伸到了屏幕显示内容。用户可以按下与截屏操作相同的按钮来搜索屏幕上的内容,并针对这些内容进行操作和提问。
借助 App Intents,你可以将 App 中的搜索功能集成到视觉智能中。这样,用户就可以在视觉搜索 iPhone 屏幕上的内容或身边的某个物体时,得到来自你的 App 的搜索结果。
“快捷指令”App
现在,你可以在“快捷指令”App 中创建操作,并与新的智能操作结合,形成强大的组合。借助 App Intents,App 的操作和实体可与写作工具、图乐园等功能协同,还可以结合全新的“使用模型”操作,让用户可以直接利用设备上的 Apple 智能模型或私有云计算技术,让它们提供响应,帮助执行“快捷指令”的后续步骤。
智绘表情
用户现在可以为喜爱的表情符号加上描述,打造出全新的表情符号。对于以家人和朋友为原型创作的智绘表情,他们还将有更大的发挥空间,比如加上个性化的发型来搭配朋友的新造型。
图乐园
对于以某个人物为原型创作的图像,用户将有更大的发挥空间,例如根据当时的情景改变人物表情。你还可以使用 ChatGPT 挖掘更多风格。