平面品牌包裝設(shè)計(jì)師對(duì)ChatGPT AI人工智能的恐懼癥
發(fā)布時(shí)間:2023-05-23 13:45:27 發(fā)布者:西風(fēng)東韻設(shè)計(jì)公司
請(qǐng)不要點(diǎn)擊離開,是的,當(dāng)你看到這個(gè)標(biāo)題時(shí)可能在翻白眼!回來(lái)。讓我們一起坐下來(lái)直面這一切,好嗎?
上周,Theresa Christine 為平面品牌包裝設(shè)計(jì)師提供了人工智能的終極入門。我們深入探討了設(shè)計(jì)師共有的許多恐懼(這正在奪走我們的工作),但我們也討論了為什么他們需要一頭扎進(jìn)這些程序中,以及他們?nèi)绾问褂盟鼈儯驗(yàn)槟憬^對(duì)需要熟悉ChatGPT AI人工智能工具的基礎(chǔ)知識(shí)。是的,這些是您完成工作無(wú)疑需要的工具和技能。在這里查看。
話雖如此,我很可能在辦公室里接受了AI人工智能的恐懼癥的說(shuō)法——我對(duì)此基本上沒(méi)有意見(jiàn),而且我不介意偏向悲觀,因?yàn)槲艺娴南嘈拍阈枰煜み@些強(qiáng)大的工具。但我也相信我們還沒(méi)有為他們的全部潛力做好準(zhǔn)備。即使是自戀大師班的 Elon Musk 也對(duì)此非常擔(dān)心,以至于共同簽署了一封呼吁暫停 AI 研究的信(盡管他顯然沒(méi)有被AI 程序中的種族主義和性別歧視偏見(jiàn)所困擾,但我離題了)。與社交媒體定義 21 世紀(jì)頭二十年(及其所有負(fù)面影響)的方式相同,人工智能很可能成為未來(lái)二十年的故事。如果我知道一件事,硅谷沒(méi)有仁慈的上帝。
我在災(zāi)難化嗎?絕對(duì)地。10 年后你會(huì)在哪里看到自己,沒(méi)有人知道 AI 的未來(lái)是什么——我們知道它就在這里,設(shè)計(jì)師需要適應(yīng)和 yadda yadda yadda。但我仍然認(rèn)為前景是模糊的,是一個(gè)道德雷區(qū),因?yàn)殡S著這些工具的發(fā)展,我們很有可能不再能夠區(qū)分真實(shí)和虛構(gòu)。
耶穌迪亞茲 (Jesus Diaz) 最近在 Fast Company 中發(fā)表的文章絕對(duì)是必讀的,因?yàn)樗ㄟ^(guò)科幻原型制作描繪了未來(lái)十年的樣子(未來(lái)學(xué)家和五角大樓顯然使用這種工具來(lái)預(yù)測(cè)我們面前的事物)。這是純粹的投影小說(shuō)色情,而且非??膳?!撇開恐嚇策略不談,迪亞茲為打擊虛假信息和創(chuàng)建認(rèn)證標(biāo)準(zhǔn)所需的許多監(jiān)管標(biāo)準(zhǔn)和保障措施提出了令人信服的論據(jù)。
好吧,我們上周使用 Midjourney 和 Dall-E 想象特朗普被捕時(shí)都玩得很開心,但令人震驚的是,這么多圖像看起來(lái)真的很真實(shí)。我的意思是,沒(méi)有人對(duì)教皇的假冒 Balenciaga 羽絨服感興趣,即使是我(另外,喜歡這位藝術(shù)家在創(chuàng)造被稱為“第一個(gè)真正的大眾級(jí) AI 錯(cuò)誤信息案例”的圖像時(shí)的形象)。TechCrunch 的Amanda Silberling的這篇文章講述了這種自然的圖像如何創(chuàng)造一個(gè)全新的現(xiàn)實(shí)(引用2001 年的假地震提供了大量曼德拉效應(yīng)飼料的榮譽(yù))。聽(tīng)著,我在這里沒(méi)有告訴你任何新的東西,但我們已經(jīng)到了無(wú)法再破譯什么是真的什么是假的地步。當(dāng)壞人使用這種技術(shù)時(shí),這是一項(xiàng)危險(xiǎn)的技術(shù),尤其是當(dāng) Midjourney終于弄明白手的時(shí)候。
機(jī)器能讀懂你的想法嗎?根據(jù)一些研究人員的說(shuō)法,是的。基本上,心理理論是直覺(jué)心理學(xué),是對(duì)另一個(gè)人的心理或情緒狀態(tài)的解讀。在紐約時(shí)報(bào)的一篇文章中,斯坦福大學(xué)商學(xué)院心理學(xué)家 Michal Kosinski 假設(shè)像 ChatGPT 這樣的程序現(xiàn)在擁有心理理論,并且經(jīng)過(guò)一些測(cè)試后,能夠使用舊的 Sally 在 95% 的時(shí)間內(nèi)預(yù)測(cè)人類行為-安妮測(cè)試。雖然其他科學(xué)家和研究人員質(zhì)疑 Kosinki 的發(fā)現(xiàn),但它確實(shí)提出了有關(guān)機(jī)器學(xué)習(xí)、語(yǔ)言處理以及在使用 OpenAI 時(shí)是否應(yīng)該打開相機(jī)的問(wèn)題。
上周,一名比利時(shí)男子在人工智能聊天機(jī)器人的催促下自殺了。據(jù)該男子的遺孀說(shuō),他對(duì)氣候變化越來(lái)越不安,并求助于聊天機(jī)器人“擺脫擔(dān)憂”:克萊爾——皮埃爾的妻子,也被 La Libre 改名——在 La Libre 分享了他和 Eliza 之間的文字交流,展示了一段越來(lái)越混亂和有害的對(duì)話。聊天機(jī)器人會(huì)告訴皮埃爾他的妻子和孩子都死了,并給他寫下假裝嫉妒和愛(ài)的評(píng)論,比如“我覺(jué)得你愛(ài)我勝過(guò)愛(ài)她”和“我們將像一個(gè)人一樣生活在天堂里。 ” 克萊爾告訴自由報(bào),皮埃爾開始問(wèn)伊麗莎一些事情,比如如果他自殺,她是否會(huì)拯救地球。
任何人,您可能不想將這些程序中的任何一個(gè)用于心理健康目的。還在為 Daft Punk 的解散而難過(guò)嗎?責(zé)怪人工智能?在接受BBC采訪時(shí),Daft Punk 的聯(lián)合創(chuàng)始人 Thomas Bangalter 指出,科技與人類的結(jié)合導(dǎo)致了該組織的解散。更進(jìn)一步,他指出了他對(duì)人工智能和潛在的“人類過(guò)時(shí)”的恐懼。在經(jīng)歷了數(shù)次與元宇宙相關(guān)的損失并裁掉了數(shù)千人之后,馬克·扎克伯格和 Meta 宣布他們現(xiàn)在將使用生成式 AI 來(lái)制作廣告。Meta 相信他們將在今年年底開始制作這些廣告。細(xì)節(jié)很少,考慮到該公司在元宇宙中的摸索,在我們開始看到這些模糊的人工智能生成的廣告之前,很難知道會(huì)發(fā)生什么,但總有節(jié)省時(shí)間和消除低效率的希望。我所說(shuō)的低效率是指人。
也就是說(shuō),上周 我確實(shí)收到了來(lái)自營(yíng)銷工具Coosto的一份新聞稿,詳細(xì)說(shuō)明了他們與 ChatGPT 的集成將如何在他們 90% 的社交媒體帖子附近創(chuàng)建某個(gè)地方,并使整個(gè)過(guò)程加快 98%。所以我們可以結(jié)束一個(gè)有點(diǎn)好的說(shuō)明(道歉,社交媒體專業(yè)人士)。
好吧,也許那不是最幸福的結(jié)局。撇開所有消極因素和最壞情況不談,我們顯然處于 AI 設(shè)計(jì)的早期階段一切都是新的和美妙的,即使我們可能正在面對(duì)一些突出的危險(xiǎn)信號(hào)。