一年前,ChatGPT開(kāi)創(chuàng)性地開(kāi)創(chuàng)了人工智能時(shí)代:它如何影響社會(huì)?

ChatGPT 于 2022 年 11 月 30 日推出,迎來(lái)了許多人所說(shuō)的人工智能的突破之年.在發(fā)布后的幾天內(nèi),ChatGPT 就風(fēng)靡一時(shí)。

對(duì)話的截圖在社交媒體上滾雪球般越滾越大,ChatGPT 的使用量猛增,似乎連它的制造商 OpenAI 都感到驚訝。到 1 月,ChatGPT 每天有 1300 萬(wàn)獨(dú)立訪問(wèn)者,創(chuàng)下紀(jì)錄適用于消費(fèi)者應(yīng)用程序增長(zhǎng)最快的用戶群。

在這突破性的一年里,ChatGPT揭示了良好界面的力量和炒作的危險(xiǎn),并播下了一套新的人類(lèi)行為的種子。

作為一名研究人員研究技術(shù)和人類(lèi)信息行為,我發(fā)現(xiàn) ChatGPT 在社會(huì)中的影響力與技術(shù)本身一樣,來(lái)自人們?nèi)绾慰创褪褂盟?/p>

像 ChatGPT 這樣的生成式 AI 系統(tǒng)正變得越來(lái)越普遍。自 ChatGPT 發(fā)布以來(lái),在演講、對(duì)話和文章中似乎必須提及 AI。

今天,OpenAI 聲稱每周有 1 億人使用 ChatGPT.

除了在家中與ChatGPT互動(dòng)的人外,各級(jí)員工直至最高管理層企業(yè)正在使用 AI 聊天機(jī)器人。在科技領(lǐng)域,生成式人工智能被稱為自 iPhone 以來(lái)最大的平臺(tái),于 2007 年首次亮相。

所有主要參與者正在做人工智能賭注和風(fēng)險(xiǎn)投資人工智能初創(chuàng)公司正在蓬勃發(fā)展.

在此過(guò)程中,ChatGPT 引發(fā)了許多擔(dān)憂,例如它對(duì)假情報(bào),欺詐,知識(shí)產(chǎn)權(quán)問(wèn)題歧視.在我的高等教育世界中,大部分討論都圍繞著作弊,這已成為這是我今年自己研究的重點(diǎn).

ChatGPT 第一年的經(jīng)驗(yàn)教訓(xùn)

ChatGPT 的成功首先說(shuō)明了良好界面的力量。

十多年來(lái),人工智能已經(jīng)成為無(wú)數(shù)日常產(chǎn)品的一部分,從Spotify和Netflix到Facebook和谷歌地圖。GPT 的第一個(gè)版本是支持 ChatGPT 的 AI 模型,可以追溯到 2018 年。甚至 OpenAI 的其他產(chǎn)品,例如 DALL-E,也沒(méi)有像 ChatGPT 發(fā)布后立即掀起波瀾。

正是基于聊天的界面掀起了人工智能的突破之年。

聊天有一些獨(dú)特的誘惑力。人類(lèi)被賦予了語(yǔ)言,對(duì)話是人們相互交流和推斷智力的主要方式。基于聊天的界面是一種自然的交互模式,也是人們體驗(yàn)人工智能系統(tǒng)“智能”的一種方式。

ChatGPT 的巨大成功再次表明,用戶界面推動(dòng)了技術(shù)的廣泛采用,從 Macintosh 到 Web 瀏覽器和 iPhone。設(shè)計(jì)造就不同。

同時(shí),該技術(shù)的主要優(yōu)勢(shì)之一——生成令人信服的語(yǔ)言——使其非常適合產(chǎn)生虛假或誤導(dǎo)性信息。ChatGPT 和其他生成式 AI 系統(tǒng)使犯罪分子和宣傳人員更容易利用人類(lèi)的弱點(diǎn)。

該技術(shù)的潛力助長(zhǎng)欺詐和錯(cuò)誤信息是監(jiān)管人工智能的關(guān)鍵理由之一。

生成式人工智能的真正前景和危險(xiǎn),該技術(shù)也為炒作的力量提供了另一個(gè)案例研究。今年不乏關(guān)于人工智能將如何改變社會(huì)的方方面面以及如何技術(shù)的擴(kuò)散是不可避免的.

ChatGPT并不是第一個(gè)被炒作為“下一件大事”的技術(shù),但它可能是獨(dú)一無(wú)二的,因?yàn)樗瑫r(shí)被炒作為一種生存風(fēng)險(xiǎn)。許多科技巨頭,甚至一些人工智能研究人員都警告說(shuō),存在以下風(fēng)險(xiǎn):超級(jí)智能人工智能系統(tǒng)興起并消滅人類(lèi),盡管我認(rèn)為這些擔(dān)憂是牽強(qiáng)附會(huì)的。

媒體環(huán)境有利于炒作,而目前的風(fēng)險(xiǎn)投資環(huán)境尤其進(jìn)一步助長(zhǎng)了人工智能的炒作。迎合人們的希望和恐懼是焦慮的秘訣,沒(méi)有任何明智決策的成分。

未來(lái)可能會(huì)發(fā)生什么

人工智能的閘門(mén)在2023年打開(kāi),但明年可能會(huì)帶來(lái)放緩。人工智能的發(fā)展很可能是滿足技術(shù)限制并遇到基礎(chǔ)設(shè)施障礙,例如芯片制造服務(wù)器容量.同時(shí)人工智能監(jiān)管可能即將到來(lái).

這種放緩應(yīng)該為人類(lèi)行為規(guī)范的形成提供空間,無(wú)論是在禮儀方面,如何時(shí)何地使用 ChatGPT 在社會(huì)上是可以接受的,還是在有效性方面,比如何時(shí)何地使用 ChatGPT 最有用。

ChatGPT 和其他生成式 AI 系統(tǒng)將融入人們的工作流程,使工人能夠更快地完成某些任務(wù)并減少錯(cuò)誤。就像人們學(xué)會(huì)“谷歌”獲取信息一樣,人類(lèi)將需要學(xué)習(xí)使用生成式人工智能工具的新實(shí)踐。

但2024年的前景并不完全樂(lè)觀。它正在形成這是世界各地選舉的歷史性一年,人工智能生成的內(nèi)容幾乎肯定會(huì)被用來(lái)影響公眾輿論和煽動(dòng)分裂。

Meta 可能有禁止在政治廣告中使用生成式人工智能,但這不太可能阻止 ChatGPT 和類(lèi)似工具被用于創(chuàng)建和傳播虛假或誤導(dǎo)性內(nèi)容。

政治錯(cuò)誤信息在社交媒體上傳播在2016之內(nèi)以及在2020之內(nèi),幾乎可以肯定生成式人工智能將在 2024 年繼續(xù)這些努力.即使在社交媒體之外,與 ChatGPT 和類(lèi)似產(chǎn)品的對(duì)話本身可能成為錯(cuò)誤信息的來(lái)源.

因此,每個(gè)人——無(wú)論是否使用 ChatGPT——在這項(xiàng)轟動(dòng)一時(shí)的技術(shù)的第二年都必須學(xué)習(xí)的另一個(gè)教訓(xùn)是,當(dāng)涉及到各種數(shù)字媒體時(shí)要保持警惕。

蒂姆·戈里查納茲,信息科學(xué)助理教學(xué)教授,德雷塞爾大學(xué)

本文轉(zhuǎn)載自對(duì)話根據(jù)知識(shí)共享許可。閱讀原文.

寶寶起名 起名

本站所有相關(guān)知識(shí)僅供大家參考、學(xué)習(xí)之用,部分來(lái)源于互聯(lián)網(wǎng),其版權(quán)均歸原作者及網(wǎng)站所有,如無(wú)意侵犯您的權(quán)利,請(qǐng)與小編聯(lián)系,我們將會(huì)在第一時(shí)間核實(shí)并給予反饋。
相關(guān)期刊推薦
湖北農(nóng)機(jī)化

湖北農(nóng)機(jī)化

農(nóng)業(yè)基礎(chǔ)科學(xué) - 省級(jí)期刊

信息記錄材料

信息記錄材料

一般化學(xué)工業(yè) - 國(guó)家級(jí)期刊

當(dāng)代教育實(shí)踐與教學(xué)研究

當(dāng)代教育實(shí)踐與教學(xué)研究

合作期刊 - 省級(jí)期刊

電子制作

電子制作

合作期刊 - 國(guó)家級(jí)期刊

中國(guó)畜牧獸醫(yī)文摘

中國(guó)畜牧獸醫(yī)文摘

合作期刊 - 國(guó)家級(jí)期刊

科學(xué)導(dǎo)報(bào)

科學(xué)導(dǎo)報(bào)

合作期刊 - 國(guó)家級(jí)期刊

信息通信

信息通信

合作期刊 - 省級(jí)期刊

辦公室業(yè)務(wù)

辦公室業(yè)務(wù)

合作期刊 - 國(guó)家級(jí)期刊

電子技術(shù)與軟件工程

電子技術(shù)與軟件工程

合作期刊 - 國(guó)家級(jí)期刊

時(shí)代報(bào)告

時(shí)代報(bào)告

世界文學(xué) - 省級(jí)期刊

西部學(xué)刊

西部學(xué)刊

合作期刊 - 省級(jí)期刊