AI 的剝削:肯尼亞工人訓(xùn)練 ChatGPT,看大量有害內(nèi)容心理受傷
1 月 18 日,美國(guó)《時(shí)代》雜志發(fā)布調(diào)查報(bào)道稱(chēng),為了降低 ChatGPT 的危害性,其開(kāi)發(fā)公司 OpenAI 以每小時(shí)不到 2 美元的價(jià)格雇傭肯尼亞工人打標(biāo)簽。
這項(xiàng)工作對(duì) OpenAI 至關(guān)重要。ChatGPT 所依賴(lài)的 GPT 大型語(yǔ)言模型雖然已展示出令人印象深刻的文本能力,但目前的 GPT-3 還存在很多問(wèn)題,總是脫口而出暴力、性別歧視和種族主義言論。
為了建立安全系統(tǒng)以控制這種危害,OpenAI 借鑒了 Facebook 等社交媒體的做法。通過(guò)給人工智能提供有關(guān)暴力、仇恨言論和性虐待的例子,讓檢測(cè)器就可以學(xué)會(huì)檢測(cè)言論危害,再將檢測(cè)器內(nèi)置到 ChatGPT 中,就可以在仇恨言論到達(dá)用戶(hù)之前將其過(guò)濾掉,還可以幫助從人工智能的訓(xùn)練數(shù)據(jù)集中清除有害文本。
這一切,是通過(guò)肯尼亞工人閱讀大量仇恨言論并打上數(shù)據(jù)標(biāo)簽實(shí)現(xiàn)的,其中一些員工表示自己已經(jīng)出現(xiàn)心理問(wèn)題。這些數(shù)據(jù)標(biāo)簽工人的工作條件揭示了科技圖景中的黑暗部分:雖然人工智能很有魅力,但它往往依賴(lài)于隱藏的人力勞動(dòng),具有破壞性和剝削性。
1 月 18 日,美國(guó)《時(shí)代》雜志發(fā)布調(diào)查報(bào)道稱(chēng),為了降低 ChatGPT 的危害性,其開(kāi)發(fā)公司 OpenAI 以每小時(shí)不到 2 美元的價(jià)格雇傭肯尼亞工人打標(biāo)簽。
這項(xiàng)工作對(duì) OpenAI 至關(guān)重要。ChatGPT 所依賴(lài)的 GPT 大型語(yǔ)言模型雖然已展示出令人印象深刻的文本能力,但目前的 GPT-3 還存在很多問(wèn)題,總是脫口而出暴力、性別歧視和種族主義言論。
為了建立安全系統(tǒng)以控制這種危害,OpenAI 借鑒了 Facebook 等社交媒體的做法。通過(guò)給人工智能提供有關(guān)暴力、仇恨言論和性虐待的例子,讓檢測(cè)器就可以學(xué)會(huì)檢測(cè)言論危害,再將檢測(cè)器內(nèi)置到 ChatGPT 中,就可以在仇恨言論到達(dá)用戶(hù)之前將其過(guò)濾掉,還可以幫助從人工智能的訓(xùn)練數(shù)據(jù)集中清除有害文本。
這一切,是通過(guò)肯尼亞工人閱讀大量仇恨言論并打上數(shù)據(jù)標(biāo)簽實(shí)現(xiàn)的,其中一些員工表示自己已經(jīng)出現(xiàn)心理問(wèn)題。這些數(shù)據(jù)標(biāo)簽工人的工作條件揭示了科技圖景中的黑暗部分:雖然人工智能很有魅力,但它往往依賴(lài)于隱藏的人力勞動(dòng),具有破壞性和剝削性。






























粵公網(wǎng)安備 44030402000745號(hào)