人工智能(AI)主題多年來一直吸引科學(xué)和商業(yè)領(lǐng)域關(guān)注。隨著美國(guó)公司 OpenAI 使用 ChatGPT,關(guān)于人工智能的討論也吸引了國(guó)際和國(guó)內(nèi)的公眾。這表明人工智能也遭到了不信任。這里的中心關(guān)鍵詞是“黑匣子人工智能”,因?yàn)橥ǔ2磺宄斯ぶ悄軕?yīng)用程序如何得出結(jié)果、基于哪些來源以及所做的陳述是否真實(shí)。到目前為止,還沒有解釋人工智能的標(biāo)準(zhǔn),這類標(biāo)準(zhǔn)將提升人們對(duì)應(yīng)用程序的信任。新的 DIN SPEC 92001-3 將是一項(xiàng)推動(dòng)人工智能可解釋的標(biāo)準(zhǔn)。
想法
為了確保人工智能系統(tǒng)得到高效、負(fù)責(zé)任和值得信賴的使用,其開發(fā)和使用應(yīng)滿足相關(guān)的質(zhì)量標(biāo)準(zhǔn)。Neurocat GmbH 標(biāo)準(zhǔn)化經(jīng)理/產(chǎn)品管理 Annegrit Seyerlein-Klug 解釋道:“新標(biāo)準(zhǔn)旨在通過解釋人工智能應(yīng)用程序,幫助促進(jìn)人們對(duì)人工智能應(yīng)用程序的使用和安全性的信任,從而為技術(shù)的發(fā)展創(chuàng)造安全的框架條件?!?nbsp;
DIN SPEC 92001-3 作為指南
新創(chuàng)建的 DIN SPEC 92001-3 提供了適當(dāng)方法和方法的指南,以促進(jìn)人工智能系統(tǒng)生命周期所有階段的可解釋性。它定義并描述了當(dāng)今人工智能中不透明度的來源和影響。為此,該標(biāo)準(zhǔn)著眼于如何詮釋問題,并有效減輕人工智能系統(tǒng)在生命周期不同階段對(duì)不同利益相關(guān)者的影響。
覆蓋面廣
所描述的相關(guān)質(zhì)量標(biāo)準(zhǔn)是為所有類型的人工智能系統(tǒng)以及使用此類系統(tǒng)的所有領(lǐng)域創(chuàng)建的。特別是,它們適用于具有不同程度、不同不透明度的人工智能系統(tǒng)。通過這種方式,這些質(zhì)量標(biāo)準(zhǔn)有助于更好地理解和更有效地使用可解釋的人工智能。它們還使開發(fā)者能夠?qū)⑿湃魏屯该鞫仍瓌t嵌入到基于人工智能的應(yīng)用程序中。它們還構(gòu)成了制定可解釋性,正確操作的可讀證明的具體要求的,概念和程序基礎(chǔ)。
DIN SPEC 92001-3 是 KI.NRW 旗艦項(xiàng)目CERTIFIED KI的成果,該項(xiàng)目由弗勞恩霍夫 IAIS 與聯(lián)邦信息安全辦公室 (BSI) 和德國(guó)標(biāo)準(zhǔn)化研究所 (DIN) 以及其他科學(xué)合作伙伴共同制定,并由北萊茵-威斯特法倫州經(jīng)濟(jì)、工業(yè)、氣候保護(hù)和能源部資助。
系列的第三部分
DIN SPEC 是在 CERTIFIED AI 項(xiàng)目啟動(dòng)之前創(chuàng)建的一系列人工智能標(biāo)準(zhǔn)的第三部分。本系列的前兩個(gè)文件 - DIN SPEC 92001-1 和 DIN SPEC 92001-2 - 定義了 AI 質(zhì)量元模型和生命周期,是強(qiáng)調(diào)魯棒性、可解釋性和性能的通用 AI 質(zhì)量標(biāo)準(zhǔn)。另一方面,規(guī)定了確保人工智能系統(tǒng)穩(wěn)健性的標(biāo)準(zhǔn)。