中央空调,电梯,空气能热水器-中央空调,电梯,空气能热水器中央空调,电梯,空气能热水器-中央空调,电梯,空气能热水器

“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题

“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题

截(jié)至目前,本吉奥发表了(le)300多篇学(xué)术论文,累计被引用次数超13.8万次(cì)。吴(wú)恩(ēn)达曾表示,本吉奥的许多理论研究对他有很大启发。

钛(tài)媒体App 8月24日消(xiāo)息,被誉为“AI教(jiào)父”的加拿大(dà)计算机科学家、深度学习技术先驱、2018年图灵(líng)奖得(dé)主约书亚(yà)·本吉奥(Yoshua Bengio)公开表示,随着(zhe)ChatGPT的(de)推出,AI技术风险的时间被(bèi)压缩,不幸的是,我们无法利用十年的时间解决AI风险和政策监管问题,而是更(gèng)短(duǎn)的时间,因此行业需要马上行动,加快AI安全政策落地。

“制定政策需要(yào)花费大 量时(shí)间,它需要解决多年分(fēn)歧,像这样的立法都需要数年时间才能颁布,需要建立一些流程,需很(hěn)多年时间才能真正做好这个 工作,”本(běn)吉(jí)奥对彭博(bó)社表示,他现在担心可(kě)能(néng)没有太多时间(jiān)来“做好(hǎo)这件事”。而且更糟糕的是,AI风险这(zhè)不仅是监管问题,它更是国际 条约,大家需要在全球范围(wéi)内解决这个问题。

据悉,本吉(jí)奥出生于巴(bā)黎,成长于加拿大,现居加(jiā)拿大蒙特利尔,在蒙特(tè)利尔大学(University of Montreal)计算机科学与运算系任教授。他于(yú)1991年获得(dé)加(jiā)拿大麦吉(jí)尔大学计(jì)算机科学博士学位。本吉奥的主要研究(jiū)领域是深度学(xué)习(xí)和自然语言处理。

30余年的深度(dù)学习(xí)研究(jiū)生涯里,本吉奥发表了300多篇学术论文,累计(jì)被引用 次数超13.8万次。吴(wú)恩 达(dá)曾表示,本吉奥的许多理论研究对他有很大启发。

2018年,他与“神经网络之父”Geoffrey Hinton和“卷积(jī)网络之父”Yann LeCun三人因开拓(tuò)深度学习技术理论而(ér)获得(dé)“图灵奖”,他们三位也被 AI 行业称为“AI 三巨头”、“深度学习三巨(jù)头(tóu)”、“三(sān)大AI教(jiào)父”。

作为“深度学习三巨头”之一的本(běn)吉奥曾指出,AI一词正在(zài)被滥用 ,有些公(gōng)司拟人化了(le)AI系统,仿佛AI系统是与人类相当的智慧实体,但其实目前还(hái)没有(yǒu)出现与(yǔ)人类智慧相当的(de)实体。当(dāng)然,他依然爱 AI 这(zhè)一技术。

本(běn)吉奥表示,在2022年底ChatGPT出现之前(qián),他认为真正的 AI 风险至少还要(yào)几(jǐ)十年才会出现,他曾经有一段时(shí)间并不(bù)怎(zěn)么(me)担心AI安全问题 ,并且认为人(rén)类距离(lí)开发出能够与人类匹敌的(de) AI 技(jì)术还有“几十年的时间”,他(tā)假设我们可以在面对风险之前“收获(huò)AI的好处”多年。

但现在,ChatGPT的推出完(wán)全改变了他(tā)的想法。他不再(zài)那么确定了。

他对AI发展速(sù)度的假设——以及技术对社会构成的潜在威胁——在2022年底OpenAI发布 ChatGPT后被颠覆了,因为人类水(shuǐ)平的 AI 技(jì)术(shù)已 经到来。

“自从我们(men)最(zuì)终拥有了能够与我们对话的机器(qì)(ChatGPT)后,我完全改(gǎi)变了我的(de)想(xiǎng)法(fǎ),”本(běn)吉奥表示(shì),“我们现在有(yǒu)了能够掌握语言的AI机器。我们没想到会这么快就做到这一点。我认为(wèi)没 有人真正预料(liào)到(dào)这一点,即使是构建这些系统(tǒng)的人。你可(kě)以看到,人们认为我们(men)可能还需要 几年、几十年(nián)甚至更长时间才能达到人类水平的智能。人们普遍认为,一旦我们达到(dào)人(rén)类水平的智能,就很难预测会发(fā)生什么——我们(men)最终会得到非常非常好的东西还是非常(cháng)非(fēi)常坏的东西,以及我们该如何应(yīng)对。有很多不确定性。这正是我目前在(zài)科学和政(zhèng)策方面工作的动力。”

在 ChatGPT引发全球(qiú)关于 AI 风 险(xiǎn)的讨论之后,本吉奥开始(shǐ)投入更多的精力(lì)倡导AI监管,并且与同为学术界和 AI 先驱的Geoffrey Hinton一起公(gōng)开支持一项有(yǒu)争议的加州 AI 安全法案SB1047,该法(fǎ)案将使公司(sī)在不采取安全预防 措施(shī)的情况下(xià),对其AI模型造成的灾(zāi)难性伤害承(chéng)担责任。

本吉奥(ào)认为,这是“桌上第二(èr)重要的提案”,仅次于欧盟的AI法案。

当(dāng)地时间8月15日,饱受(shòu)争议的美国(guó)加州《前沿AI模型安全创新法案(àn)》(后称(chēng)加州AI安(ān)全法案SB 1047)在大幅度削弱相关条款之后,最终顺利(lì)通过(guò)加州众议(yì)院拨款委员会的审(shěn)核。

SB 1047旨在(zài)通过追究开发者 的责任来防止大型 AI 系(xì)统(tǒng)造成大(dà)量人(rén)员(yuán)死亡或造成损失超过 5 亿美元的网络安全事件。顺利通过审(shěn)核之后,这意味着,该法案朝着成为正式法律法规迈出(chū)了重要一步,也(yě)是美国在AI监管上迈出的重(zhòng)要一步(bù)。

但是,加州AI安(ān)全法案饱受争议。斯坦福大学教授李飞飞(fēi)、Meta首席科(kē)学(xué)家杨立昆(kūn)等人认为,该法案最终将会损害加州乃至美国在AI领域的领先地位,100多位学(xué)界人士也(yě)发文反对,风投机构a16z专门建立网(wǎng)站(zhàn)细数法案六宗罪。

甚至(zhì)前美 国众议院(yuàn)议(yì)长南希·佩洛西(xī)(Nancy Pelosi)也发声明反对此法 案,认为(wèi)加州AI安全法案意图良好但缺乏充分了解,许多重(zhòng)要的加州科技公司学者和负责人都表示反对该法案,认为它弊大于(yú)利。

最新一个反对(duì)加州 AI 法案(àn)的是OpenAI。OpenAI本周发文称,该立法将(jiāng)损害AI创新,并可能对美国在 AI 和国家安全方面的竞争力产生(shēng)“广泛而重大”的影响 。

然而,本吉奥却 表(biǎo)示,加州AI安全法案避免了过(guò)于规(guī)定性,而是使用责任来确保AI公司不会忽视“合理专家会做的”安全预防(fáng)措施。“它将为公司创造一个激励,使他(tā)们不会成(chéng)为班上最差的(de)学生。”

本吉奥(ào)指出,围绕 AI 监管的讨论可能会受(shòu)到风险投资家和希望从该技术中获利的(de)公司的影响。“你可以将其与气候变(biàn)化(huà)、化石燃料公司等进行类比,”他说。

“事(shì)实并非如此,事实(shí)恰恰相反(fǎn)。它没(méi)有那 么大的约束力。它并(bìng)没有 施加多大(dà)影响。它只是说 :如(rú)果你造成了数十亿(yì)美 元的损失,你就要负责。几十(shí)年来,整个计算领域在某种程度上一直不受任何(hé)形式(shì)的监(jiān)管 。

我认为(反对派)更多的是意(yì)识形态。我真的很担心游说团体的力量(liàng)以(yǐ)及 Ai 带来的数万亿甚至数千万亿的利润(rùn)(加州大(dà)学伯克利分校教授、人工智能系统中心创始人Stuart Russell表示)会激励企业反对任何监管。”本(běn)吉奥表示。

谈到风险(xiǎn)管控,本吉奥指出,“我认为自己对风险持(chí)怀疑(yí)态度。我听到过很多很好(hǎ“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题o)的论据,认为比我们更(gèng)聪明的人工智能可能非(fēi)常危险。甚(shèn)至在它们比我们(men)更(gèng)聪明(míng)之(zhī)前,它们就可能被人类以(yǐ)对(duì)民主极其危险的方式使用。任何说他们知道的(de)人(rén)都过于自信,因为事实(shí)上,科学并没有答(dá)案 。没有办法以可验(yàn)证的 方(fāng)式回答。我们可以看到这样或那样的(de)论点,它们都是合理的。但是如果你是不可知论者,并(bìng)且正在(zài)考虑政策,你需要保护公众免受真正糟糕的(de)事情(qíng)的伤害。这就是(shì)政府 在许多其他领域一直(zhí)在(zài)做的(de)事情。没(méi)有理由说他们不能在(zài)计算和(hé) AI 领(lǐng)域做到这一点。”

本吉奥反复强(qiáng)调,他没(méi)想到(dào)人类会这么快(kuài)掌握对(duì)话式AI语音 技术,而且目前至少(shǎo)达到足够(gòu)人性化的水(shuǐ)平。

“我认为,对危险事物(wù)进行快速(sù)创新的渴望(wàng)是不明智的。在生物学领域,当(dāng)研(yán)究人员发现通过所谓的功能获得研究可以制造(zào)出危险(xiǎn)的病毒时,他们一起决定,好吧,我们不这么做了。让我们要求政府制定规则,这样如果你这样做,至少在不受控制(zhì)的情况下(xià),你就(jiù)会进监狱。”本吉奥表示,“我相信你知道合成儿童色情(qíng)制品,也(yě)许情感上(shàng)不那(nà)么具有挑战性,但(dàn)更重要的是,同样的深度伪造可能会 扭曲(qū)社会。那些深度(dù)伪造只会越来(lái)越(yuè)好。声音会(huì)越来越(yuè)好(hǎo)。视频会越来越好。还有一件(jiàn)事人们谈(tán)论得不够:当前甚至未来(lái)的系统说服人们改变想法的能力。就在几个月(yuè)前,瑞士 进行了一项最新研究,他们将 GPT-4 与人类进行了比较,看看谁能说服那些显然不(bù)知道 自己是在和人交谈还是在和机器交谈的人改变对某事的看法。猜猜谁赢 了。”

本吉奥指出,“我们应该在AI方面采取类似的预防原则行为(wèi)。”

展望未来,本吉奥(ào)强(qiáng)调,所有(yǒu)AI技术应用依然会以健康方式改变人类的生(shēng)活方式(shì)。比如在(zài)生物学(xué)方面,AI会了(le)解身体如(rú)何(hé)运作、每个细胞如何运(yùn)作(zuò),这可能会彻底(dǐ)改变医学和药物研发等(děng)领域(yù);气候方面它可以(yǐ)帮(bāng)助(zhù)制造更好的电池、更好的碳(tàn)捕获、更好的能量存储。

“虽然“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题还没有发生,但(dàn)我认为这些都是我们(men)可以用 AI 做(zuò)出的很好的“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题技术产(chǎn)品。顺便说一句,这些应用——它们大 部分(fēn)都不是危险的。因此,我们应该在这些显然可以帮助社会(huì)应对挑(tiāo)战的(de)事情上(shàng)投入更(gèng)多。”本 吉奥在对话结尾表示。

截至(zhì)目前,本吉奥发(fā)表了300多(duō)篇学术(shù)论文,累计被(bèi)引(yǐn)用(yòng)次数超(chāo)13.8万次。吴(wú)恩达曾表(biǎo)示(shì),本吉奥的许多理论研(yán)究对他有很大启发。

钛媒体App 8月24日消(xiāo)息,被(bèi)誉为“AI教父”的加拿大计算机科(kē)学家(jiā)、深度学习技术先驱、2018年(nián)图灵奖(jiǎng)得主约(yuē)书亚·本吉(jí)奥(Yoshua Bengio)公开表(biǎo)示,随着ChatGPT的推出,AI技术风险(xiǎn)的时间(jiān)被压缩,不幸的是,我们无法利用十年的时间解决AI风险和政策监管问题,而是更短(duǎn)的(de)时间,因此行业需要马上(shàng)行(xíng)动,加快AI安全政策落地。

“制定政策(cè)需要花费(fèi)大(dà)量时(shí)间,它需要解决多(duō)年分歧,像这样的立法(fǎ)都需要数年时间才能颁布,需要建立一些流程,需很多年时间才能(néng)真正做好这个工作,”本吉奥对彭博社表示,他现在担心可能没有(yǒu)太多时间(jiān)来(lái)“做(zuò)好这件事”。而且更糟糕的是,AI风险这不(bù)仅是监管问题,它更是国际条(tiáo)约,大家需要在(zài)全(quán)球范围内解决这个问题(tí)。

据悉,本吉奥出生于巴黎,成长于加(jiā)拿大(dà),现(xiàn)居加拿(ná)大蒙特利尔,在蒙特利尔大学(University of Montreal)计(jì)算机(jī)科学 与运算系任教授。他于1991年获得加拿(ná)大麦(mài)吉尔大(dà)学计算机科(kē)学博士(shì)学位。本吉(jí)奥的主要研究领域是(shì)深度学习和自(zì)然语言处理 。

30余年的深(shēn)度学习研究生(shēng)涯(yá)里,本吉(jí)奥发表了300多篇学术论文,累计被引用次数超13.8万次。吴恩(ēn)达曾表(biǎo)示,本吉奥的许多理论研究对他有很大启发。

2018年,他与(yǔ)“神经网络之父”Geoffrey Hinton和“卷积(jī)网络(luò)之父(fù)”Yann LeCun三人因开拓深度学(xué)习(xí)技术(shù)理论而(ér)获得(dé)“图灵奖”,他们三位也被 AI 行(xíng)业称为(wèi)“AI 三巨头”、“深度(dù)学习三巨头”、“三大AI教父”。

作(zuò)为“深度学习三巨(jù)头”之一的本吉奥曾(céng)指(zhǐ)出,AI一词正在(zài)被滥用,有些公司拟人化了AI系统,仿佛AI系统是(shì)与人(rén)类(lèi)相当的(de)智慧(huì)实体,但其实目前还没有出现与人(rén)类 智慧相当的实体。当然,他依然爱 AI 这一技术。

本吉奥表示,在(zài)2022年底ChatGPT出(chū)现之前,他认为真正的 AI 风险至少还要几十(shí)年才会出现,他(tā)曾经有一段时间并不怎(zěn)么担心(xīn)AI安(ān)全问题,并且认为人类距(jù)离开发出能够与人类匹敌的(de) AI 技术还有(yǒu)“几十年(nián)的时间”,他假设我(wǒ)们可以在面对风险之前“收获AI的(de)好处”多年。

但现(xiàn)在,ChatGPT的推 出完全改变了他的 想法。他不再那么确(què)定了。

他对AI发(fā)展速度的(de)假设——以及技术对社会构成的潜在威胁——在2022年底(dǐ)OpenAI发布ChatGPT后被颠覆了,因为人类水平的 AI 技(jì)术已经到来。

“自从(cóng)我们最终拥有了能够与我(wǒ)们对话的机器(ChatGPT)后,我完全改变了我的想法,”本吉奥表示,“我们现(xiàn)在有了能够掌(zhǎng)握语言的 AI机器。我们没想到会这(zhè)么快就做(zuò)到这一点。我认为没有人真(zhēn)正预料到这一点,即使是构(gòu)建这(zhè)些系统的人。你可以看到,人(rén)们认为(wèi)我们可能还需要几年、几十年甚至更长时间才能达到(dào)人类水平的智能。人(rén)们普遍认为,一旦我们达到(dào)人类水平的智能,就很难预测会发生什么——我们(men)最终会得到(dào)非常非常好的东(dōng)西还是非常(cháng)非常坏(huài)的东西,以及我(wǒ)们该如何应对。有很(hěn)多不确定性。这正是我目前在科学(xué)和政(zhèng)策方面工作的动(dòng)力。”

在ChatGPT引发(fā)全球关于 AI 风险的(de)讨论之后,本吉奥开始投入(rù)更多的精力倡导AI监管(guǎn),并且(qiě)与同为学术界和 AI 先驱的Geoffrey Hinton一起公开支(zhī)持一项有争议的加州 AI 安(ān)全法案SB1047,该法案将使公司在不采取安全预防措施的情况下,对其AI模型造成(chéng)的灾难性伤害承担(dān)责任。

本吉奥认为,这是“桌上第二(èr)重要(yào)的提案”,仅次于欧盟的AI法案。

当地时(shí)间8月(yuè)15日,饱受争议的美国加州《前沿AI模型安全创新法案》(后称 加州AI安全法案SB 1047)在大幅度削(xuē)弱相关(guān)条(tiáo)款之后,最终顺利通过加州众议院(yuàn)拨款委员会的审核。

SB 1047旨在通过追(zhuī)究(jiū)开发者的责任来防止大型 AI 系统(tǒng)造(zào)成大量 人员(yuán)死亡或造成损失超过 5 亿美(měi)元的网络(luò)安(ān)全事件(jiàn)。顺利通过审核(hé)之后,这(zhè)意(yì)味(wèi)着,该法案朝着成为正(zhèng)式 法律法规迈出了重(zhòng)要一步,也是美国在AI监管上迈出的重(zhòng)要一步。

但是,加州AI安全法案饱受争议。斯坦福大学教(jiào)授李飞(fēi)飞、Meta首席科学家杨立昆等人认为,该法案最终将会(huì)损害加州乃至美国在AI领域的领先地位,100多位学界人士也(yě)发文反对,风投机构a16z专门建立网站细数法案六(liù)宗罪。

甚至 前美国众议院 议长南希·佩洛西(Nancy Pelosi)也发声明(míng)反对此法案,认为加州AI安全(quán)法案(àn)意图(tú)良好但缺(quē)乏(fá)充(chōng)分了解,许多重要的加州 科技公(gōng)司学者和负责人(rén)都表示反对(duì)该法案 ,认为它(tā)弊大于 利。

最 新一个反对加(jiā)州 AI 法案的(de)是OpenAI。OpenAI本周发文称,该(gāi)立法将损害AI创新,并可能(néng)对美国在 AI 和国家安全方(fāng)面的竞争(zhēng)力产生“广泛而重大”的(de)影(yǐng)响。

然而,本吉奥却表示,加(jiā)州AI安全法案避 免了过于规(guī)定(dìng)性,而是使用责任来确保AI公司不会忽视“合理专家会做的”安全预防措(cuò)施。“它将为公司创造一个激励,使他们不会成为班上最差的学生。”

本 吉奥(ào)指(zhǐ)出,围绕 AI 监管的讨论可能会受到风险投(tóu)资家和希望从该技术中获利的公司的(de)影(yǐng)响。“你可以将其与气(qì)候变化、化石燃料公(gōng)司等进行类比,”他说。

“事实并非(fēi)如此(cǐ),事实恰(qià)恰相(xiāng)反。它没(méi)有(yǒu)那么大的约束力。它并没有施加多大影响。它(tā)只是说:如果你造成了数十亿美(měi)元的损失,你就要负(fù)责。几十年来,整个计算领域在某种程度上一直不(bù)受任何形式的监(jiān)管。

我(wǒ)认为(反对派)更多的是(shì)意识形态。我真(zhēn)的很担心游说团体的力量以及 Ai 带来的数万亿甚至数千万(wàn)亿的利(lì)润(加州大学(xué)伯克利分校教授、人工(gōng)智能(néng)系统中心(xīn)创始人Stuart Russell表示)会激励企业反对任(rèn)何监管(guǎn)。”本吉奥表示(shì)。

谈到风险管控,本吉奥指出,“我认为自己对风险持怀疑态度。我听到过很多很好的论据,认为(wèi)比我们更聪明(míng)的人工智能可能非常危险。甚至(zhì)在它们比我们更聪(cōng)明之前,它们就可能被人类以对(duì)民主极其危险的方式使用。任何说他们知道(dào)的人都过于自信,因为事(shì)实上,科学并没有答案。没有办 法以可验证的方式(shì)回答。我们可以看到这样或那样的论(lùn)点(diǎn),它(tā)们都是合理的。但是如(rú)果(guǒ)你(nǐ)是不可(kě)知论者,并且 正在(zài)考虑政(zhèng)策,你需要保护公众(zhòng)免受真正(zhèng)糟糕的事情的伤害。这就是政府(fǔ)在许多其他领域(yù)一直在做的事情。没有理由说他们(men)不能在计(jì)算和 AI 领域做到这(zhè)一点。”

本吉奥反复强调,他没想到人类(lèi)会这么(me)快掌握对话式AI语音技术,而且目前至少达到足够人性化的水(shuǐ)平。

“我认(rèn)为,对危(wēi)险事物进行 快速(sù)创(chuàng)新的渴(kě)望是不明智(zhì)的(de)。在生物学领域,当(dāng)研究人员发现通过所谓的(de)功 能获(huò)得研究可以(yǐ)制造出危险 的病毒时,他们一(yī)起决定,好吧,我们不这么做了。让我们要求(qiú)政府(fǔ)制定规则,这样如果你这样(yàng)做,至少在不受控制的情况下,你就会进监狱。”本吉奥(ào)表示,“我(wǒ)相信你(nǐ)知道合成儿童色情制品,也许情感上(shàng)不那么具有挑战性,但更(gèng)重要的是 ,同样的深度伪造可能(néng)会扭曲社(shè)会(huì)。那些(xiē)深度(dù)伪造只(zhǐ)会越来 越好。声(shēng)音会越来越好。视频会越来越好。还(hái)有一(yī)件事人们谈(tán)论得不够(gòu):当前甚至(zhì)未来的系统(tǒng)说服人们改(gǎi)变想法的(de)能力。就在几个月(yuè)前,瑞士进行了一项(xiàng)最新研究,他们(men)将 GPT-4 与 人类进(jìn)行(xíng)了比较,看(kàn)看谁能说服那些显然(rán)不知道自己是在和人交(jiāo)谈还是在和机器交谈的人改变对某(mǒu)事的看法(fǎ)。猜猜谁赢了。”

本吉奥指出(chū),“我们应该在(zài)AI方面采取类似的预防原则行为。”

展望未来,本吉奥强调(diào),所有(yǒu)AI技术应用依(yī)然会以(yǐ)健(jiàn)康方式改变人类的生活方式。比如在生物学方面,AI会了解身(shēn)体如何运作、每(měi)个细胞如何运作,这可能会彻底(dǐ)改(gǎi)变医学和药物研发等领域;气候方(fāng)面它可以帮助制造更好的电池、更好的碳捕获(huò)、更好的能量存储(chǔ)。

“虽然还没有发生,但我认为这些都是我们可(kě)以用 AI 做出(chū)的很好的技术(shù)产(chǎn)品。顺便说一句,这些应用——它们大部分(fēn)都不是危险的(de)。因此,我们应该在这些显然(rán)可以帮助(zhù)社会应对(duì)挑(tiāo)战的事情上投入更多。”本(běn)吉奥在对话结尾表示。

未经允许不得转载:中央空调,电梯,空气能热水器-中央空调,电梯,空气能热水器 “AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题

评论

5+2=