苹果一直以来都非常注重产品的外观和内在性能,但外界似乎并不知道,苹果但其实也一直在尝试使用Transformer等大型语言模型来提升其产品的性能和用户体验。
最近,一名叫做Jack Cook的技术爱好者发现,苹果在macOS Sonoma beta中安装了一个名为Transformer的GPT-2架构的语言模型,这个模型似乎是基于GPT-2架构打造的。
据Cook所说,苹果的语言模型更像是基于GPT-2架构打造的,在分词器方面,表情符号在其中十分突出。除此之外,Cook还发现,苹果的语言模型架构似乎与Transformer架构有所出入,但具体架构并没有得到官方的证实。
尽管苹果官方没有透露太多信息,但技术爱好者们已经开始深入挖掘这个语言模型的内部结构。根据Cook的测试,这个模型可以实现单个单词的预测和纠错功能,但预测即将出现的多个单词的情况则需要句子语义十分明确才行。
值得一提的是,这个语言模型似乎并不需要很高的计算资源。尽管如此,这个模型依然有望为苹果的产品带来更加出色的性能和用户体验。
作为一名资深的、专业的新闻记者和编辑,我认为,苹果Transformer语言模型的推出,将有助于苹果更好地应对大型语言模型的浪潮,同时也给消费者带来了更多的选择和期待。
【来源】https://www.ithome.com/0/719/962.htm
Views: 6