谷歌搜索引擎(谷歌搜索入口)

 在线之家   2023-10-29 19:13   128 views 人阅读  0 条评论
摘要:

谷歌搜索引擎(谷歌搜索门户)在新冠肺炎爆发整整一年后,时隔两年,GoogleI/O开发者大会终于再次与大家见面。日前,硅星人已经发布了关于本次I/O大会重要内容的报道,提到了远程办公、清洁能源、增强现实、Andro

  谷歌搜索引擎(谷歌搜索门户)

  在新冠肺炎爆发整整一年后,时隔两年,Google I/O开发者大会终于再次与大家见面。日前,硅星人已经发布了关于本次I/O大会重要内容的报道,提到了远程办公、清洁能源、增强现实、Android 12新设计语言、人工智能等谷歌重磅话题。

  大会期间,Silicon Star还采访了谷歌AI技术和产品部门的负责人。今天,我们来进一步讨论一下。从这次I/O大会上,我们可以看到谷歌在AI方面更重要的突破和新动作。

  变压器的无限边界

  2014年,被称为“机器学习三剑客”之一的Yoshua Bengio教授团队提出了注意机制。基于这一机制,谷歌团队在2017年推出了深度学习模型Transformer。

  与卷积/递归神经 *** (CNN,RNN)等“传统”神经 *** 模型不同,Transfromer的 *** 结构的主要组成部分是注意机制,解决了传统模型在处理自然语言工作时采用的顺序计算模式带来的各种问题和局限性。

  谷歌在2019年基于Transformer技术开发的BERT算法不仅在自然语言处理的各种任务中效率大幅提升,而且这项技术还被Byte、美团、脸书等中美顶级公司广泛采用,证明了其巨大的潜力。

  在这次I/O大会上,谷歌宣布了自然语言处理和知识处理的新突破:LaMDA和MUM。您可以阅读我们前天发表的文章,了解这两款新机型的更多信息。

  简单来说,LaMDA是针对对话优化的自然语言处理的一代模型。它是一种低级技术,但为了展示它的能力,谷歌选择将其呈现为聊天机器人:假设用户想要了解冥王星的更多信息,LaMDA可以扮演冥王星,与用户进行自然、亲切、有趣的对话。

  MUM是一个超级强大的多模态学习模型,解决复杂问题的能力远超前人。以前我们用搜索引擎的时候,经常要修改自己的问题,让计算机能够理解。现在有了妈妈,我们可以直接向搜索引擎提问。无论句子结构多复杂,信息量多大,MUM都能实现精准的上下文理解,实时在线提取、翻译、整理、呈现75种语言的答案。

  LaMDA和MUM的底层是Transformer,这是本节开头提到的自然语言处理的重要架构。

  几年前发布Transformer和BERT时,它们被视为机器学习技术的重要突破。今年Google在I/O上预演的这两款新机型再次证明了Transformer还有无限的发展空。

  以妈妈为例。与2018年Google发布的被称为自然语言处理“大杀器”的BERT算法相比,性能提升了1000倍,是Transformer技术方向的又一重大突破。

  妈妈不仅能理解,还能生成语言。与此同时,谷歌已经用75种语言训练了MUM,用于许多不同的自然语言处理任务,如对话理解、对话生成、摘要和翻译。以这种方式培养的妈妈在收集、处理知识和生成信息的能力方面是前所未有的。

  更令人兴奋的是,MUM还是一款多模态车型。除了文字,它现在还可以从图片中提取信息,未来还会引入视频、音频等更多模式——进一步扩大Transformer的功率边界。

  有意思的是,今年3月,谷歌的一位研究人员曾经发表过一篇论文,用Transformer架构进行了一次跨应用的实验,做了各种微调。发现效果不是很好。两个月后,通过LaMDA和MUM,Google自己在I/O上给其他研究人员和开发人员做了一个“如何正确使用Transformer”的出色演示。

  MUM和LaMDA的发布为《变形金刚》描绘了一条宏伟的发展曲线。2017年谷歌发布的时候,就预料到它会有很大的潜力;后来有了BERT,这种算法被集成到搜索和自然语言处理相关产品中,效果显著提升。今天,随着MUM和LaMDA的出现,它证明了Transformer作为一种颠覆性的深度学习技术还有很长的路要走。

  实现对自然语言的真正理解,一直是一个高不可攀的目标。每一次技术突破实际上都是向那个目标更近了一步,但从未真正实现过。语言是人类最自然的交流方式,所以让机器理解自然语言是谷歌的目标。现在我们看到《变形金刚》的潜力如此之大,人类从未如此接近这个目标。

  当然,不是每个人都能享受到妈妈和LaMDA所依赖的计算环境:谷歌的TPU芯片和TPU Pod云计算模块。在今年的I/O大会上,TPU计算设备正式宣布升级到v4。单个芯片(下图左侧4个芯片)的运算速度是v3的两倍,而TPU v4 Pod(下图右侧)配备了4096个TPU v4核心,总浮点运算能力高达1 exaflops(每秒100亿次浮点运算)。

  虽然Google现在通过聊天机器人和搜索引擎来呈现这两种技术,但实际上LaMDA和MUM还是非常早期的研究项目,离商业化还很远,甚至目前还没有论文。谷歌还有很多其他这样的项目,内部称之为“moonshot”。

  以MUM为例,谷歌在官网上表示,将这项技术应用于搜索时,在社会责任方面仍存在一些挑战。像伯特一样,妈妈将经历一个漫长而严格的审查过程。谷歌希望找出这些前沿技术可能存在的社会责任问题,比如偏见、能源消耗等等。

  这意味着我们在不久的将来不会看到MUM和LaMDA等技术被整合到搜索、谷歌助手和其他谷歌产品和服务中。当然,和我们一样,谷歌自己也在期待着它们能真正派上用场的那一天。

  生活有用,娱乐有趣。

  虽然诺基亚早已淡出科技圈的之一梯队,但“以人为本的科技”的理念仍在各大公司贯彻,包括谷歌。

  前段时间,硅星人很客气地评论说,谷歌一些先进的AI研究成果与其核心业务和重要产品服务的结合度不高。当然,就像刚才说的,大公司的运营机制更复杂,在社会责任方面也面临更多挑战。最近,吴恩达也表示,所有人工智能从“概念验证”到“商业使用”还有很长的路要走。

  从这次I/O大会上,我们也看到了谷歌在全线产品上加大AI技术投入的努力。

  地图:

  在谷歌大会上,仅今年一年,AI技术就已经帮助谷歌地图实现了100多项功能更新。在不久的将来,更多的新功能和体验优化正在进行中。

  在导航方面,地图团队发现最快的导航路径不一定是更好的。在许多情况下,这些最快的路径导致更大的交通量和更复杂的交通状况。其中最关键的一个问题是,驾驶员经常会遇到急刹车,数据显示急刹车与交通事故的相关性更高。

  因此,谷歌将在未来的版本更新中加入新的导航逻辑:推荐一条交通状况更加“平衡”顺畅、急刹车可能性更小的导航路径,并引入车道数、路径直线度、信号灯数量、行人流量等。通过新的导航逻辑,谷歌预计每年将帮助用户减少1亿次急刹车情况,“使你从A地到B地更快,同时更安全。”

  凭借机器学习和计算机视觉的力量,谷歌现在已经分析了世界各地的大量卫星图像,在地图上标记出人行横道的位置,帮助使用地图的行人更安全地过马路。这项功能将很快支持全球50多个城市:

  疫情期间,很多用户外出购物、就餐时更关注谷歌地图上目的地繁忙程度的功能,错峰出行。好消息是,使用机器学习来挖掘数据,现在谷歌也可以向用户呈现更大区域的繁忙程度:

  谷歌照片

  Google的云相册产品Photos,现在已经存储了超过4万亿张照片,但是团队也发现了一个大多数人应该意识到,却很少意识到的问题:我们大部分的照片最后只是保存下来,再也没有翻看过(小吐槽:为了保存照片,多花点钱买一个大容量的手机真的值得吗?)-但这些照片对用户来说并非毫无价值。

  如何挖掘价值?Google Photos团队动了脑筋,他们做了这样一个功能:从大量照片中抓取相同的细微细节,将内容相似或包含相同人和物的照片收集到一个内存中(自动生成相册)。

  这些照片存放在虚拟世界的角落里,积满灰尘,意义不大,但如果收藏起来,其实讲述了一个又一个美丽的故事,可能早已被我们遗忘。比如,你可能会惊讶地发现,大学时父母送给你的,早就扔掉的那个黄色书包,其实已经陪你走遍了全世界。

  另一个新功能叫做Cinematic moments:Google Photos现在可以使用神经 *** 的力量来分析几张相似照片之间的关联,猜测并填充缺失的细节,并生成一个短片进行保存。该功能与iOS Live Photos等类似功能的不同之处在于,它仍然是拍摄照片而不是视频。几张照片之间的时间跨度可以更大。

本文地址:http://news.zhienkeji.com/3007.html
版权声明:本文为原创文章,版权归 在线之家 所有,欢迎分享本文,转载请保留出处!

 发表评论


表情