在GoogleI/O2024上,GoogleDeepMind推出了ProjectAstra,该公司称该项目是人工智能助手的未来。ProjectAstra可以通过接收信息、记住所看到的内容、处理信息并理解上下文细节来与周围的世界进行交互。它还比当前形式的GoogleAssistant说话更加自然,并且没有滞后或延迟。
在演示中,用户要求Astra项目在看到发出声音的物体时告诉她。然后助手回复说,它可以看到一个发出声音的扬声器。继续对话,用户画一个指向高音扬声器的箭头,并询问助理扬声器的那部分叫什么。阿斯特拉计划可以毫不拖延地向她解释扬声器的那部分叫什么,并提供有关它的详细信息。
接下来,她转向蜡笔,没有说“嘿,谷歌”,她只是要求有关“这些”的头韵。助手毫不拖延地再次提到了蜡笔的头韵。
她向ProjectAstra展示某人显示代码的显示器,并问道:“这部分代码的作用是什么?”助理毫不犹豫地解释了这部分代码的作用。
令人印象深刻的是,她甚至问阿斯特拉计划是否记得在哪里看到了她的眼镜,它回答说是在一个红苹果旁边。
目前还不清楚她戴着什么眼镜,但它也具有ProjectAstra功能,并且可以与她所看到的内容进行交互。
通过这个演示,很明显ProjectAstra可以更快地处理信息。该技术通过连续编码视频帧并将视频和语音组合成事件时间线来实现这一点,然后缓存信息以供调用,例如当她询问助手是否记得她眼镜的位置时。
谷歌表示,其中一些功能将在今年晚些时候添加到Gemini应用程序和其他产品中。
演示一气呵成,无需停下来,无需召回助手;这令人印象深刻,让我对双子座的未来感到兴奋。然而,当它正式发布时,我愤世嫉俗地认为它可能会出现一些错误,并且不会像演示一样完美。另外,值得记住的是,谷歌有编辑演示的历史,以使其人工智能看起来比实际更快、更强大,所以也许对Astra持保留态度。