Google Lens的多搜索功能,允许用户通过拍照或上传图片,并结合文字注释,以找到更符合需求的答案,这一创新功能已在美国的Android和iOS平台上开放使用。这一功能旨在帮助用户更轻松地搜索和找到难以描述的物品,或者寻找相似物品,并通过特定注释内容,如“如何修复”、“如何前往”、“在哪里找”等,进一步提高Google Search的搜索准确性。
Google在去年的Search On活动中预告,通过Google Lens应用拍摄照片并配合输入相关注释,有助于系统更好地理解特定图像背后的搜索需求,从而为用户提供更多、更精确的答案。此外,Google Search已整合了“MUM”语言模型,该模型能够更深入地理解用户输入背后的真实意图。结合Google Lens的应用,用户可以利用文字和图像内容,以及动态视频内容,以可视化的方式更容易理解所需答案。
用户反馈与期待
用户对这一功能的反馈各不相同。一些用户表示,这种新的搜索方式非常方便,能够有效减少搜索时间,但也有用户表示,他们更习惯传统的文字搜索方式。有用户表达了希望台湾版本能够尽快支持的期待,认为这一功能可以提供更多信息,期待在台湾版本开放后尝试使用。
总结
Google Lens的多搜索功能不仅为美国用户带来了便捷的搜索体验,而且有望在未来扩展至更多市场。通过结合文字描述与图像识别,这一创新功能不仅提高了搜索的精准度,还提供了更直观、易于理解的搜索结果,为用户提供了全新的搜索体验。随着技术的进一步发展与普及,更多用户将能享受到这一功能带来的便利。
Views: 0