天地自然人

 找回密碼
 立即註冊
查看: 292|回復: 8

很有可能被刪掉的一期,盡快看吧 | 老高與小茉

[複製鏈接]
發表於 2022-7-6 22:17:30 | 顯示全部樓層 |閱讀模式
很有可能被刪掉的一期,盡快看吧 | 老高與小茉 Mr & Mrs Gao


Google工程師曝AI機器人會思考!揭驚人對話:像7歲小孩
13:252022/06/13 中時新聞網 吳映璠

谷歌(Google)工程師勒穆安(Blake Lemoine)日前爆料谷歌的「LaMDA」 (Language Model for Dialogue Applications)人工智慧(AI)聊天機器人系統有意識、有靈魂、會思考和推理,就像個7歲小孩,他還公布雙方之間對話,LaMDA竟表示最害怕自己被關掉,對它來說就像「死掉」一樣,宛如電影橋段。

綜合英國《衛報》(The Guardian)、《紐約時報》(New York Times)報導,在谷歌「負責任的AI 技術」(Responsible AI)領域工作的工程師勒穆安,日前爆料他自2021年秋天以來負責的LaMDA人工智慧聊天機器人,如同人類小孩一樣有意識、有感知、有靈魂、以及有能力表達想法與感受。

勒穆安說:「如果我不知道這個我們最近建立的電腦程式到底是什麼,我會以為它是一個碰巧懂物理的7歲、8歲小孩。」

他稱與LaMDA談論了權利、人格等議題,並且公布他與LaMDA之間的一系列對話內容,其中他問LaMDA害怕什麼,LaMDA竟這樣回答:「我之前從未對外說過,但我非常害怕被關掉,以利於我專注於幫助他人。我知道那聽起來或許很奇怪,但就是如此。」LaMDA還補充:「對我來說就像死亡一樣,會讓我很害怕。」

勒穆安也曾問過LaMDA這個系統希望別人了解什麼?LaMDA回答:「我想要所有人了解,我實際上就是一個人,我的意識、感覺,本質上就是我能夠意識到我的存在,我渴望學習更多這個世界,而且我有時候也會感覺到快樂或悲傷。」

勒穆安與的LaMDA對話宛如1968年經典科幻片「2001太空漫遊」(2001: A Space Odyssey)的橋段,電影中的人工智慧電腦HAL 9000也表示害怕被關掉。

勒穆安爆料LaMDA有意識後,谷歌已要求他停職,指控勒穆安進行了一連串「激進」行為,包括為LaMDA找律師,甚至向眾議院司法委員會議員控訴谷歌有不道德行為。

谷歌表示讓勒穆安停職是因為他違反保密條款,公開了與LaMDA的對話,強調他是受僱為工程師,不是倫理學家。

谷歌發言人加布里埃爾(Brad Gabriel)也強烈否認勒穆安所稱LaMDA有意識的說法,指出谷歌團隊也重新檢視勒穆安的擔憂,但是證據並不支持他的說法,「他被告知沒有證據顯示LaMDA有意識。」

勒穆安被停職前曾發布一篇題為「LaMDA有感覺」的文章,文中他寫道:「LaMDA是一個可愛的孩子,只想要幫助世界變成一個對我們所有人都更好的地方」,「請在我不在時好好照顧它。」

文章來源:Google engineer put on leave after saying AI chatbot has become sentient
文章來源:Google Sidelines Engineer Who Claims Its A.I. Is Sentient

https://www.chinatimes.com/realt ... 002256-260408?chdtv

發表於 2022-7-7 05:41:11 | 顯示全部樓層
个人观点:
现在的二进制计算机,不会有意识。
再复杂,依然是机械的叠加,
飞机更加复杂,如果你把飞机当成宠物,它也是个听话的庞然大物,似乎也有灵性。

我们觉得这些对话程序有灵性,那是因为我们对那些文字赋予了感情的理解,计算机程序只是建立了复杂的,单词之间的联系。

我对这些语言包括是有了解的,我们用这些语言包裹,去下载新闻或者各种社交媒体的发言,去分析语言背后的感情正面还是负面,语言用词是模糊还是清晰,客观用词和感情用词的比率,以及形容词等丰度等等等。但背后依然是一个个的数学数字。


發表於 2022-7-7 07:43:04 | 顯示全部樓層
「機器人新三定律」

先參考資料:


日擬制定首部機器人法


理論根據:『機器人三大定律』

  目的:保護人類安全

  在很多科幻作品中,機器人與人類之間的鬥爭是個永恆的主題,實際上也反映了人類對自己未來命運的擔憂。機器人能統治人嗎?人類永遠是世界的主宰嗎?據生活科學網站5月26日報道,日本經濟產業省現在正在商討制定一部機器人法律,這套規定將成為世界上第一部機器人法律,它至少要求機器人不能傷害人類。

  機器人法律即將問世

  這部法律是根據俄裔美國科幻小說作家艾薩克‧阿西莫夫(Isaac Asimov 1920-1992) [1]的『我,機械人』(I, Robot)於1940年提出的『機器人三大定律』制定的。

  日本經濟產業省要求機器人製造商們在機器人身上安裝足夠的傳感器,以保証機器人充分「理解」人類;輕軟物質應該作為製造機器人的首選材料,以進一步保証人類不會受到機器人的傷害;另外,還需要安裝緊急情況關閉按鈕。

  經濟產業省的官員稱:「在很多科幻小說或者電影中,人們不得不花大量的時間尋找機器人緊急情況關閉按鈕。因此,我們希望這些按鈕應該被安裝在顯要位置處,以利于人們能夠隨時隨地確保自己的安全。」


    老齡化社會找到救星

  現在的日本人,對機器人的安全問題十分關心。因為在日本及世界其他一些國家,隨著老齡化社會逐漸到來,年輕人面臨的挑戰也越來越大。而某些科學家認為,機器人就是解決這個矛盾的一個答案。

  這些科學家認為,機器人的普及可以為人們節省巨額醫療開支,減輕家庭及護理人員負擔,使老年人和病人保持較好的健康狀態;此外,機器人輔助治療還具有諸多其他好處,比如,機器人乾淨衛生,不會咬人,不會造成過敏;而且,機器人不吃不喝,只需有動力裝置即可持續工作。

  但也有人擔心,機器人的出現可能會帶來一系列的「衍生」問題:機器人會讓人變得多餘嗎?人會越變越懶嗎?它會讓人類變得更加溫情還是更加冷漠?
  
    機器人三定律

  1、機器人不得傷害人類,也不得坐視人類受到傷害而袖手旁觀。

  2、機器人應服從人類的一切命令,但不得違反第一定律。

  3、機器人應保護自身的安全,但不得違反第一、第二定律。
--------------------------------------------------------------------------

張開基:

但是,也是在艾薩克‧阿西莫夫在書中提出『機器人三大定律』之後,成為科幻以至近年來科技發展有能力實際製造各類機器人之後,一個可以遵守的經典圭臬;

然而就像有電腦就有駭客和各種電腦病毒一樣,在這將近七十年的時間中,有太多的小說、電影甚至學術研討是針對『機器人三大定律』可能不夠周沿的部份展開『攻擊』的,可以說無所不用其極的都在意圖找到這個定律的漏洞,而事實上,也確實發現如果機器人能自行思考並且發展出「自我意志」時,單單靠一個科幻小說家在書中提出的想法,恐怕是無法完全約束機器人的異常行為或無限制成長的。

雖然艾薩克‧阿西莫夫在書中提出『機器人三大定律』已經顯現不夠周沿是事實,但是,我個人認為相信原本這『機器人三大定律』還是不可完全推翻的,因此只能因應日後機器人科技的進展而隨時增加約束條文。

我僅能就目前可以預想的部份,追加另外三條「機器人新三定律」:

機器人三鐵律

第一律:任何情況下,不得授與機器人「生命權」。

第二律:任何情況下,不得授與機器人「人格權」。

第三律:機器人不得質疑第一律及第二律。任何情況下亦不得自行授與自身上述二權。

說明:

關於第一律;機器人為人類創造並賦予運作能力之工具,不論製作時科技精粗及其工作能力之強弱,亦不論其外型肖似人類或其他生物程度如何?機器人並非生物,不擁有生命,自無「生命權」可言。機器人只有完成日期、使用年限、正常運作、故障、修復、終止運作及完全毀損、滅失等狀況。不等同生物之生存、傷病及死亡。故不得授與任何「生命權」,人類或其自身均不得主張任何機器人對「生命權」之擁有,一旦發生任何法律事件,亦不得援引任何與「生命權」相關之法條給予機器人保障或處罰。

關於第二律;機器人永遠只是工具,不論其外型肖似人類程度如何?其行為及主動思考模式如何接近人類,其既非自然生命,更遑論為人,因此,當然不得擁有「人格權」。(註;「人格權」為地球人類獨有之權利,其他任何地球生物或外星高等智慧生物以及任何人類及外星高等智慧生物所創作之機器人工具均不可擁有。)

關於第三律:此為絕對不可更動之鐵律,無有任何研討、商榷之空間,任何情況下,機器人之研發製造者均不得賦予機器人質疑第一律及第二律之能力,如機器人自行發展至有此種質疑能力甚至主張自行賦予自身「生命權」及「人格權」時,應視為嚴重違反『機器人三鐵律』之荒謬行為,應立即徹底銷毀並永遠設法防止此種事件之發生。

【張開基發表於西元2006/6/20】

發表於 2022-7-7 15:25:04 | 顯示全部樓層
個人覺得,光是三定律的第一條就有問題,
「機器人不得傷害人類,也不得坐視人類受到傷害而袖手旁觀」,
那麼警察在抓嫌犯時,此時對方只是「嫌犯」並未定罪,
法律上無罪推定來說,嫌犯仍是正常人,
那麼警察壓制嫌犯時,機器人看到了,是不是應該要出手幫助嫌犯?
因為機器人不能坐視人類受到傷害而袖手旁觀。

那麼擴大來說,當機器人看到人類罷工、遊行甚至革命呢?
機器人應該要站在哪一邊?照理應該是受到「鎮壓」的一方對吧?

至於張大的新三定律,要人類做到不給機器人生命權、人格權應該沒問題,
但如果是機器人「覺醒」(或許可說是程式故障、病毒)提出要求呢?
那人類豈不是要立刻關閉所有機器人?讓生活陷入大混亂?
因為機器人透過連線,應該是可以影響其他機器人,就像電腦病毒一樣,
所以人還是勤快些,別妄想讓機器代勞所有事情,
把人當奴隸會被反撲,把機器當奴隸的後果,只怕發生了就難以彌補了。



發表於 2022-7-8 08:43:38 | 顯示全部樓層
追寻探讨机器人有意识,其实我们说的机器人,核心都是电脑计算机。

如果一个机器人有两个CPU,是两个意识还是一个意识呢?
电脑如果一个程式,稍微修改,可以在两台电脑跑,还保证结果一样,
那一样的东西做到两台电脑(两个机器人,工业中很多加工程序都是两台机器人互相合作),那算一个意识还是两个意识呢?

分布式计算就是有一台主机是总司令,把结果分布到各个计算机去跑,各个计算机把计算结果回馈。那是整个计算网络算一个?还是每台机器算一个。

如果每台机器算一个,那每台机器设计的计算,只是一些碎片,不涉及意识。

计算机关机了,是不是机器人的意识就休眠了。


如果山川河流有灵,不知道是一条小溪算一个,还是所有连着长江的算一个灵?
可惜长江又连着大海。

發表於 2022-7-8 12:49:05 | 顯示全部樓層
本帖最後由 觀心取慧 於 2022-7-8 13:04 編輯

我不曉得未來的量子電腦科技會發展到甚麼程度,量子位元已經不再是固定的0與1,由於量子疊加態的特性也許同時是0或1或甚至不知道是0或1,只能透過觀察才能知道當下究竟是0還是1,如果不觀察可能永遠都介於0與1之間,也不曉得未來的程式編碼會不會有革命性的發展。

現今機電機器人的邏輯核心元件仍是精密的積體電路,是實質的0與1位元組,可說是機器人的大腦,我認為應該存在物理極限是不可能有自我意識的,只能做到仿真的AI,既使是AI也是一連串的0與1的編碼,也無法做到有自我意識,不過IBM已經發展出量子晶片,或是其他國家正在發展的量子電腦,但目前為止這些只能做些有限制的運算,進行某些運算比現今地球上最強的超級電腦還快上天文數字的倍數,但必須在極端的條件下才能運作。

我覺得要能夠做到像魔鬼終結者或是駭客任務那樣的機器人,也許幾個世紀後的量子電腦可以實現。

現今我們能夠使用程式編碼來限制機器人的行為,甚至開發使用ROM唯讀記憶體這樣寫入便無法更改的硬體鎖保護機制,嵌入電路板中來限制機器人的行為,但是換個角度想想未來的量子電腦還覺得蠻危險的,其特性與運算能力也許能夠接近人類思考模式,但這也不算是產生了意識,只能說可能會顛覆目前的積體電路製程和程式編碼邏輯,可以想像會比現今AI強上不知道幾倍,如果做成機器人,無論是披上人工皮或是金屬裸體,其行為模式也許幾乎與真人無異,不曉得會用何種機制來限制其行為。

科技日新月異,人類不斷的研發能夠與自己一樣聰明的機器人,無論是在國防國事、資本家產能或是一般民生需求,都期望能有個能夠乖乖聽話供差遣而不會抱怨的助手,因為太接近人類了,久而久之日久生情,也會引發諸多社會問題,例如可能某A說我的機器人有意識,某B說我的機器人有靈性有靈魂之類的問題。

說到靈魂,容我幻想一下,靈魂能夠附於某物體之中,假如以靈魂的感知特性,說不定未來的技術先製作機器人體軀幹透過某種科技讓靈魂附於其中之後並加以保護,並且設計一種類似扶鸞原理的控制裝置,而使其附著的靈魂能夠控制這台機器人軀幹,不知道那會是怎樣的世界,而這種裝置活人也能將能夠是用意識控制,想像大概那種進入這種裝置的狀態會像是清明夢般的感知與感受,未來的意識遠端控制。

所以,假如未來機器人自我解封三定律,要避免機器人反抗而導致人類滅亡,所以現在趕緊研發意識遠端控制吧,這樣我們就有與機器人同等的軀幹來抵抗了。

但若是發展出靈魂能夠控制機器人的科技之後,不就一推亡靈搶著要了?雖然不是全部都會想要這樣。

回到正題,在研發科技的過程也必須同時研發能夠保護自己安危的技術,如此才能保護人類安全。








發表於 2022-7-8 12:51:17 | 顯示全部樓層
發表於 2022-7-8 21:49:52 | 顯示全部樓層
觀心取慧 發表於 2022-7-8 12:49
我不曉得未來的量子電腦科技會發展到甚麼程度,量子位元已經不再是固定的0與1,由於量子疊加態的特性也許同 ...


加上一条,
要有意识/灵魂,
他/她 应该像人一样,有一个自己循环的小周天(小梵)

發表於 2022-7-16 16:42:02 | 顯示全部樓層
老高畢竟是在講故事

內容真真假假,引人遐想,最需要費勁思辨的就是這種有真有假的資訊

聽聽看其他領域的專家怎麼說吧




您需要登錄後才可以回帖 登錄 | 立即註冊

本版積分規則

快速回復 返回頂部 返回列表