1. Chrome 126引入Gemini Nano模型
- 谷歌在2024年I/O大会上宣布,Chrome 126版本将集成轻量级Gemini Nano本地模型,支持在浏览器端直接生成文本(如产品评论、社交媒体帖子等),无需依赖云端计算。
- 该模型此前已应用于Pixel 8系列手机,专注于本地化AI任务处理,减少对网络连接的依赖。
2. 跨设备模型推理优化
- 谷歌通过MediaPipe LLM Inference API,支持开发人员在不同设备(手机、PC等)上运行AI大模型,实现跨设备协同推理。
- 技术优化包括量化压缩、缓存加速和硬件适配,提升本地模型的运行效率。
3. 未来计划:增强推理能力
- 谷歌计划将Gemini 2.0的高级推理能力融入AI概述功能,以处理更复杂的数学问题、多模态查询和编码任务。
- 正在探索基于AI的欺诈检测功能,利用本地模型识别网络安全威胁,进一步提升用户隐私保护。
4. 隐私与安全优势
- 本地模型推理可避免数据上传至云端,降低敏感信息泄露风险,尤其在处理个人输入(如密码、支付信息)时更安全。
- Chrome的“安全DNS”和“内存隔离”等实验性功能,结合本地模型,可构建更严格的防护体系。