当前位置:首页>WordPress资讯>谷歌大型语言模型LaMDA: 它可能是有知觉的吗?

谷歌大型语言模型LaMDA: 它可能是有知觉的吗?

谷歌大型语言模型LaMDA: 它可能是有知觉的吗?

不太可能被大多数观察者描述为有知觉或有意识。然而,这是一个不可能明确回答的问题。但我们知道,它是最先进的语言系统之一。请看下文,阅读更多关于LaMDA的意识潜力。

为了宣布LaMDA(对话应用的)的推出,谷歌首席执行官展示了他们作为冥王星的新模型回答问题。LaMDA由谷歌开发,是一种开放式的对话式。在演示中,它在与用户的对话中扮演了一个人或一个物体的角色。根据谷歌首席执行官的说法,LaMDA综合了训练数据中的概念,以方便通过现场对话获得关于任何主题的信息。

谷歌大型语言模型LaMDA: 它可能是有知觉的吗?

LaMDA是如何工作的?

LaMDA建立在Transformer上,这是谷歌用于自然语言理解的开源架构。在这个平台上建立的模型在众多数据集上进行训练,以寻找句子中的模式,建立单词之间的关联性,并预测下一个单词是什么。Transformer被用来增强机器翻译能力。

LaMDA是有知觉的吗?

一名谷歌声称感觉到LaMDA有知觉,他的故事被《华盛顿邮报》发表,并因违反其保密政策而被谷歌安排行政休假。由于在使用 “有知觉 “一词时经常指的是意识,而意识并不是一个定义明确或可证明的属性,因此不可能完全清楚地说明LaMDA是否有知觉。

然而,LaMDA的技能的一个类比是中国房间的思想实验。如果LaMDA通过复杂的数字结构对其阅读过的数十亿行文本进行统计分析,从而产生现实的答案,那么它是否

  • 通过复杂的数字结构运行统计分析而不理解语言?
  • 理解语言?
  • 或者这两件事的意思是一样的?

虽然第一个问题的答案是肯定的,但其他两个问题是可以解释的,因为我们对人类语言认知的理解还不完整。达成答案的方法是询问专家。由于LaMDA没有对公众开放,大多数专家无法形成意见,但WP文章中采访的大多数人(即Margaret Mitchell,谷歌伦理的前联合负责人,Brian Gabriel,谷歌发言人)都不相信LaMDA的智能性。

LaMDA和之间有什么区别?

聊天和LaMDA是软件的类型,可以与用户进行对话,向他们提供答案或指导他们完成某个过程。然而,典型的聊天机器人和LaMDA之间有一些区别:

典型的聊天机器人 LaMDA
在特定主题的数据集上训练 在多内容的互联网资源上训练
只从训练数据中提供答案 根据对话流程获取答案和主题
具有有限的对话流程 具有开放式的对话

原文地址:https://www.wbolt.com/lamda.html

WordPress资讯

CatGPT:恶搞版ChatGPT-当喵星人统领AI领域

2024-1-22 1:08:36

WordPress资讯

Top 41深度学习基于行业和功能的应用场景

2024-1-22 1:08:38

个人中心
今日签到
有新私信 私信列表
搜索