當(dāng)前位置: 首頁 > 工業(yè)控制產(chǎn)品 > 自動化控制 > 機(jī)器人部件 > 操作機(jī)
發(fā)布日期:2022-04-18 點擊率:25
機(jī)器人是否會有不道德的行為或者是選擇傷害人類呢?人工智能(AI)的快速發(fā)展步伐提升了我們的這種擔(dān)憂。一些人呼吁禁止機(jī)器人技術(shù)的研究;其他人則呼吁更多地研究理解怎樣對人工智能進(jìn)行限制。 但是如果沒有成為人類的“用戶說明書”, 機(jī)器人又怎樣來學(xué)習(xí)倫理行為呢?
美國佐治亞理工學(xué)院、交互計算分院的研究人員Mark Riedl 和 Brent Harrison 認(rèn)為,答案在于“堂吉訶德”系統(tǒng)— — 在亞利桑那州鳳凰城 (2016 年2 月 12-17日) 的AAAI(美國人工智能學(xué)會)第16次會議上公布。“堂吉訶德”系統(tǒng)通過訓(xùn)練機(jī)器人閱讀故事的方法來教導(dǎo)它們“價值校準(zhǔn)”,讓機(jī)器人讀故事來學(xué)習(xí)事件可以接受的后果,并理解要在人類社會中獲得成功應(yīng)當(dāng)怎樣表現(xiàn)。
“不同文化背景里的故事集,用寓言、 小說和其他文學(xué)形式的正確和不正確行為示例,來教導(dǎo)孩子做出社會認(rèn)可的舉止行為。” Riedl說,他是副教授和娛樂智能實驗室主任。“我們認(rèn)為機(jī)器人對故事的理解可以讓它們減少精神病患者出現(xiàn)的行為,并且強(qiáng)化它們“不要傷人”的選擇,同時達(dá)到期望的任務(wù)目標(biāo)。
配圖說明:研究學(xué)者M(jìn)ark Riedl 和 Brent Harrison 的“堂吉訶德”系統(tǒng)教導(dǎo)機(jī)器人在與人互動時候表現(xiàn)為正派角色,并且這是把倫理價值觀系統(tǒng)構(gòu)建進(jìn)入到新型人工智能的巨大努力的一部分。版權(quán):佐治亞理工學(xué)院
“堂吉訶德”系統(tǒng)是一種通過對社交中恰當(dāng)行為給予獎勵,使得人工智能的目標(biāo)與人類價值觀一致的一種校準(zhǔn)方法。它是建立在Riedl教授之前的一個研究——“天方夜譚”系統(tǒng),的基礎(chǔ)上的。“天方夜譚”系統(tǒng)展示了人工智能如何通過在互聯(lián)網(wǎng)上面的眾包模式故事情節(jié),來匯集得出正確的行動后果。
下一篇: PLC、DCS、FCS三大控
上一篇: 索爾維全系列Solef?PV