小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

首發(fā) | 人工智能軍事應(yīng)用面臨的技術(shù)倫理困境

 軍休強(qiáng)軍路 2023-04-03 發(fā)布于河南

首發(fā) | 人工智能軍事應(yīng)用面臨的技術(shù)倫理困境

軍事文摘 2023-03-06 19:21 發(fā)表于北京

圖片

人工智能自誕生之日起就引起人們無限的想象和憧憬,同時(shí)也伴隨著巨大的倫理爭(zhēng)議。在諸多成因中,人工智能技術(shù)的安全性問題引發(fā)的倫理爭(zhēng)議尤為激烈。一方面,人工智能在增強(qiáng)人類應(yīng)對(duì)和解決安全危害能力,提高安全控制水平方面將發(fā)揮重要作用;另一方面,受制于技術(shù)本身的特點(diǎn)和缺陷,擁有自主能力的人工智能則很有可能成為全新的安全威脅。相較于社會(huì)其它領(lǐng)域,人工智能在軍事領(lǐng)域的應(yīng)用起步較晚,但由于軍事活動(dòng)自身的特殊屬性,人工智能一旦大面積應(yīng)用到軍事活動(dòng)中,其內(nèi)在缺陷引發(fā)的倫理風(fēng)險(xiǎn)必然呈現(xiàn)放大的趨勢(shì)。在新一輪世界軍事科技革命風(fēng)起云涌的關(guān)鍵時(shí)期,對(duì)人工智能技術(shù)層面的局限性和不確定性進(jìn)行分析,結(jié)合軍事活動(dòng)的實(shí)際特點(diǎn)進(jìn)行合理推想,從而挖掘潛在的倫理風(fēng)險(xiǎn),顯得尤為緊迫而必要。
算法缺陷引發(fā)的倫理風(fēng)險(xiǎn)
算法安全通常是指由于算法本身不完善,使設(shè)計(jì)或?qū)嵤┻^程中出現(xiàn)與預(yù)期不相符的安全性問題。如:由于設(shè)計(jì)者定義了錯(cuò)誤的目標(biāo)函數(shù),或者選用了不合適的模型而引起安全問題;設(shè)計(jì)者沒有充分考慮限制性條件,導(dǎo)致算法在運(yùn)行過程中造成不良后果,引起的安全問題等。
圖片

當(dāng)前,人工智能的深度學(xué)習(xí)已經(jīng)開始模擬神經(jīng)網(wǎng)絡(luò)

人工智能發(fā)展到當(dāng)前階段,深度學(xué)習(xí)已成為掀起第三次人工智能浪潮的核心算法。通俗地講,深度學(xué)習(xí)是機(jī)器學(xué)習(xí)研究中的一個(gè)新的領(lǐng)域,其動(dòng)機(jī)在于建立、模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),通過模仿人腦的機(jī)制來解釋數(shù)據(jù),例如圖像,聲音和文本等信息。作為神經(jīng)網(wǎng)絡(luò)的3.0版本,深度學(xué)習(xí)算法相較于過去擁有更深的網(wǎng)絡(luò)層級(jí)、更龐大的神經(jīng)元結(jié)構(gòu)、更廣泛的神經(jīng)元連接,加之大數(shù)據(jù)的支持和計(jì)算機(jī)處理能力上的飛躍,目前在無人駕駛、圖片識(shí)別、機(jī)器翻譯等眾多領(lǐng)域已經(jīng)取得了令人矚目的成果,并且還保持著巨大的發(fā)展?jié)摿?。不過,深度學(xué)習(xí)算法也并不是完美無缺的,三類缺陷使得學(xué)界對(duì)于其發(fā)展和應(yīng)用持審慎態(tài)度:一是算法的不透明性和運(yùn)算過程的不可解釋性。由于神經(jīng)網(wǎng)絡(luò)所獲取的知識(shí)體現(xiàn)在神經(jīng)元之間相互連接的權(quán)重值上,其網(wǎng)絡(luò)架構(gòu)的高度復(fù)雜性使得無論是設(shè)計(jì)者還是使用者都無法解析這些知識(shí),致使在下達(dá)指令后,人們對(duì)于人工智能如何落實(shí)指令、通過什么樣的方式完成任務(wù)還無從得知,這就帶來不可解釋的“黑盒”問題。二是算法潛藏的偏見和歧視。由于算法在本質(zhì)上是“以數(shù)學(xué)方式或者計(jì)算機(jī)代碼表達(dá)的意見”,設(shè)計(jì)者和開發(fā)者自身持有的偏見將不可避免地帶入到算法的設(shè)計(jì)中,從而可能導(dǎo)致針對(duì)個(gè)別群體的歧視,引發(fā)嚴(yán)重的社會(huì)問題和倫理風(fēng)險(xiǎn)。三是神經(jīng)網(wǎng)絡(luò)的穩(wěn)定性。環(huán)境的輕微改變和目標(biāo)內(nèi)容的適度偽裝會(huì)影響神經(jīng)網(wǎng)絡(luò)的穩(wěn)定性,從而使人工智能對(duì)目標(biāo)的識(shí)別判斷出現(xiàn)失誤甚至無法識(shí)別。例如,如果對(duì)圖像進(jìn)行細(xì)微的修正,對(duì)人類而言,這種修正完全不會(huì)影響圖像識(shí)別,但會(huì)導(dǎo)致神經(jīng)網(wǎng)絡(luò)錯(cuò)誤地將其分類。
圖片

數(shù)據(jù)投毒為以人工智能作為主要防御手段的

數(shù)據(jù)安全帶來巨大挑戰(zhàn)
一旦人工智能在軍事活動(dòng)中開始大面積被使用,上述缺陷就會(huì)充分暴露出來,從而引發(fā)極為嚴(yán)重的安全問題和巨大的倫理爭(zhēng)議。下面,將逐條分析三類缺陷在軍事應(yīng)用過程中可能引發(fā)的倫理風(fēng)險(xiǎn):
對(duì)于第一類缺陷,目前學(xué)界并無統(tǒng)一的完成度高的解決方法。在這個(gè)前提下,各方認(rèn)為,足夠大的數(shù)據(jù)支持能夠有效緩解“黑盒”問題引發(fā)的安全風(fēng)險(xiǎn)。神經(jīng)網(wǎng)絡(luò)中往往包含著眾多的隱藏層,只有利用體量足夠大、類型足夠豐富的數(shù)據(jù)進(jìn)行安全測(cè)試時(shí),“激活”模型中各個(gè)部分,才能測(cè)試出更多的安全漏洞。在民用領(lǐng)域,這一設(shè)想不難實(shí)現(xiàn),只需要不同測(cè)試場(chǎng)景下足夠豐富的測(cè)試數(shù)據(jù)即可。但在軍事領(lǐng)域,上述設(shè)想的實(shí)現(xiàn)難度將大大增加。訓(xùn)練和實(shí)戰(zhàn)之間存在著巨大的反差,要想獲得足夠豐富可靠的訓(xùn)練數(shù)據(jù),就需要使人工智能的應(yīng)用場(chǎng)景盡可能地貼近實(shí)戰(zhàn)。不過這也就帶來了新的問題:人們是否能夠允許“不夠成熟”的人工智能離開實(shí)驗(yàn)室,進(jìn)入訓(xùn)練場(chǎng)、演練場(chǎng)甚至戰(zhàn)場(chǎng)?誰又對(duì)在這個(gè)進(jìn)程中出現(xiàn)的意外傷害和附帶損傷負(fù)責(zé)?困境顯而易見:要想讓人工智能軍事應(yīng)用變得更安全,就得在初始階段承擔(dān)更大的風(fēng)險(xiǎn);若想要在全過程將潛在的風(fēng)險(xiǎn)降至最低,則人工智能軍事應(yīng)用的發(fā)展便將舉步維艱,安全性也將一直得不到提升。
與第一類缺陷相比,第二類缺陷包含著較為復(fù)雜的人為因素。在民用領(lǐng)域,算法歧視主要同企業(yè)文化、設(shè)計(jì)者個(gè)人背景等社會(huì)層面的原因相關(guān),而由于軍事行動(dòng)的主體通常為國(guó)家,軍事領(lǐng)域的人工智能算法歧視還同國(guó)家利益、民族意識(shí)等密不可分。設(shè)想一下,如果二戰(zhàn)時(shí)期的德國(guó)具備設(shè)計(jì)和制造人工智能武器的能力,是否可能在設(shè)計(jì)階段嵌入針對(duì)猶太人和非猶太人進(jìn)行區(qū)分打擊的算法?當(dāng)然,這只是一種猜想,歷史不可能假設(shè),今天的世界與20世紀(jì)中葉的世界相比,已經(jīng)發(fā)生了天翻地覆的變化,納粹和希特勒這樣的極端個(gè)例在今天并不存在,但這并不代表以上的風(fēng)險(xiǎn)不存在。以歷史唯物主義的視角審視,只要階級(jí)還沒有完全消亡、國(guó)家和以國(guó)家為主體的戰(zhàn)爭(zhēng)還沒有退出歷史舞臺(tái),國(guó)家與國(guó)家之間的矛盾關(guān)系便依然存在,只不過在不同的歷史時(shí)期有著不同的表現(xiàn)形式罷了。國(guó)家需要他者扮演敵人角色,以便創(chuàng)造可以實(shí)現(xiàn)“權(quán)益”“光榮”“尊嚴(yán)”或者“道德”等價(jià)值的場(chǎng)所。因此,身處國(guó)家之中、深受民族文化熏陶的設(shè)計(jì)人員在建構(gòu)人工智能軍事應(yīng)用的基礎(chǔ)算法時(shí),就有可能受意識(shí)形態(tài)影響,有意識(shí)或無意識(shí)地對(duì)人工智能武器在盟國(guó)和敵對(duì)國(guó)的應(yīng)用進(jìn)行區(qū)分,而一旦做出這樣的區(qū)分,無論動(dòng)機(jī)為何、程度如何,都會(huì)帶來嚴(yán)重的倫理問題,也將給人類和平事業(yè)造成巨大威脅。有一種觀點(diǎn)認(rèn)為,加強(qiáng)科學(xué)團(tuán)體的社會(huì)責(zé)任感可以有效規(guī)避上述風(fēng)險(xiǎn),但在筆者看來,仍然存在幾點(diǎn)疑慮。首先,對(duì)于國(guó)際社會(huì)的責(zé)任感是否能夠抵消意識(shí)形態(tài)層面的因素;其次,科學(xué)團(tuán)體及其中的個(gè)體也都可能受自身價(jià)值觀影響而含有各種不同形式的偏見;再者,即便上述兩點(diǎn)影響得以克服,根植于內(nèi)心深處的愛國(guó)熱情、民族意識(shí)、社會(huì)文化也將不同程度地左右每個(gè)人的選擇。因此,要將以上倫理風(fēng)險(xiǎn)降至最低,就需要暫時(shí)跳出民族國(guó)家的具體語(yǔ)境,在更高的層面進(jìn)行商討,以期達(dá)成一定程度上的共識(shí),并通過相關(guān)法規(guī)予以確認(rèn),通過國(guó)際社會(huì)版本的“交往理性”抵御人工智能算法歧視在軍事領(lǐng)域引發(fā)的倫理風(fēng)險(xiǎn)。
如果說前兩類缺陷更多體現(xiàn)設(shè)計(jì)層面的靜態(tài)因素,那么第三類缺陷則更容易受動(dòng)態(tài)環(huán)境因素影響。歷史上,已經(jīng)出現(xiàn)過類似的先例。1983年9月26日,蘇聯(lián)的導(dǎo)彈自動(dòng)預(yù)警系統(tǒng)報(bào)告稱,美國(guó)向蘇聯(lián)發(fā)射了5枚洲際彈道導(dǎo)彈。而事實(shí)是,蘇聯(lián)衛(wèi)星從云層反射的陽(yáng)光(與環(huán)境的意外相互作用)中檢測(cè)到“導(dǎo)彈發(fā)射”的假陽(yáng)性??梢韵胍姡绻?dāng)時(shí)彼得羅夫中校選擇相信系統(tǒng)報(bào)告的錯(cuò)誤信息,按照規(guī)定程序上報(bào),后果將不堪設(shè)想。當(dāng)然,科學(xué)技術(shù)畢竟是在不斷發(fā)展的,今日的自動(dòng)預(yù)警系統(tǒng)相較于過去在測(cè)算精度、穩(wěn)定性、安全能力等方面均有了不小的提升,未來人工智能在軍事領(lǐng)域的應(yīng)用理應(yīng)有更好的表現(xiàn)。但是,潛在的威脅并沒有完全消除。一方面,就目前的技術(shù)發(fā)展?fàn)顩r來看,還無法確保未來的人工智能在動(dòng)態(tài)復(fù)雜環(huán)境下不會(huì)出現(xiàn)誤判;另一方面,由于戰(zhàn)場(chǎng)電磁環(huán)境日趨復(fù)雜,未來人工智能系統(tǒng)在戰(zhàn)場(chǎng)上受到的干擾和迷惑只會(huì)越來越復(fù)雜多變,從而對(duì)算法的穩(wěn)定性產(chǎn)生更大的考驗(yàn)。有人可能會(huì)提出,降低人工智能的自主性,將判斷權(quán)和決定權(quán)牢牢限制在指揮官和操作人員手中,可有效規(guī)避上述風(fēng)險(xiǎn)。但這只是一種理想的假設(shè),人對(duì)于軍事技術(shù)的運(yùn)用不僅僅受倫理的約束,還與作戰(zhàn)效率密切相關(guān)。主觀上將軍事技術(shù)的使用限制在一定閾值下,在實(shí)際操作層面實(shí)現(xiàn)起來并不容易。
數(shù)據(jù)漏洞引發(fā)的倫理風(fēng)險(xiǎn)
數(shù)據(jù)安全是指算法內(nèi)部數(shù)據(jù)模型或外部數(shù)據(jù)集在處理、存儲(chǔ)過程中的數(shù)據(jù)安全問題。在軍用領(lǐng)域,人工智能數(shù)據(jù)安全主要面臨兩大風(fēng)險(xiǎn),即訓(xùn)練數(shù)據(jù)被污染的安全風(fēng)險(xiǎn)和核心數(shù)據(jù)遭竊取的安全風(fēng)險(xiǎn)。
人工智能發(fā)展到當(dāng)前階段,訓(xùn)練數(shù)據(jù)被污染的風(fēng)險(xiǎn)主要來源于數(shù)據(jù)投毒。數(shù)據(jù)投毒是指通過在訓(xùn)練數(shù)據(jù)里加入偽裝數(shù)據(jù)、惡意樣本等,破壞數(shù)據(jù)的完整性,進(jìn)而導(dǎo)致訓(xùn)練的算法模型決策出現(xiàn)偏差。在軍事領(lǐng)域,人工智能應(yīng)用的安全性與其準(zhǔn)確的識(shí)別能力、精確的打擊能力、快速的反應(yīng)能力密不可分。而一旦訓(xùn)練數(shù)據(jù)被嚴(yán)重污染,就有可能導(dǎo)致以下幾種情況的出現(xiàn):人工智能決策系統(tǒng)給出的方案并非最優(yōu)方案,甚至存在巨大安全隱患;人工智能武器系統(tǒng)在無人授權(quán)的情況下隨意改變攻擊目標(biāo)、擴(kuò)大攻擊范圍,造成嚴(yán)重的平民傷亡;與人工智能相關(guān)聯(lián)的戰(zhàn)略武器系統(tǒng)受到錯(cuò)誤誘導(dǎo),自主啟動(dòng)發(fā)動(dòng)攻擊,從而引發(fā)毀滅性災(zāi)難。誠(chéng)然,人工智能作為科學(xué)技術(shù)發(fā)展的最新成果,其本質(zhì)的工具屬性并沒有改變。正如愛因斯坦在1930年給英國(guó)反戰(zhàn)團(tuán)體“不再打仗運(yùn)動(dòng)”的復(fù)信中所指出的:“科學(xué)是一種強(qiáng)有力的工具。怎樣用它,究竟是給人帶來幸福還是帶來災(zāi)難,全取決于人自己,而不取決于工具。刀子在人類生活上是有用的,但它也能用來殺人?!比斯ぶ悄茉谲娛骂I(lǐng)域應(yīng)用的巨大潛力和潛在風(fēng)險(xiǎn)同時(shí)存在,既不能一葉蔽目,也不宜因噎廢食,要一分為二、辯證看待。同時(shí),也應(yīng)看到,雖然人工智能的出現(xiàn)并沒有徹底顛覆科學(xué)技術(shù)和軍事安全之間的關(guān)系,但由于人工智能高度“擬人化”的行為特征和“去人化”的運(yùn)行機(jī)制,加之軍事活動(dòng)與以生命健康權(quán)為基本權(quán)利的人權(quán)密切關(guān)聯(lián),一旦內(nèi)在的風(fēng)險(xiǎn)釋放出來,勢(shì)必會(huì)對(duì)人類安全造成嚴(yán)重的威脅。因此,從技術(shù)倫理的角度對(duì)訓(xùn)練數(shù)據(jù)被污染的潛在風(fēng)險(xiǎn)進(jìn)行審視,并加以規(guī)制,不僅是必要的,也是必需的。

圖片

斯諾登將美軍的“棱鏡”項(xiàng)目公之于眾
人工智能算法本質(zhì)上可以看成一個(gè)很復(fù)雜的函數(shù),若其內(nèi)部某些參數(shù)泄露,則攻擊者可以利用這些信息構(gòu)造出與原模型相似度非常高的模型,進(jìn)而可以還原出模型訓(xùn)練和運(yùn)行過程中的數(shù)據(jù)以及相關(guān)的隱私數(shù)據(jù)。在民用領(lǐng)域,數(shù)據(jù)遭竊取的風(fēng)險(xiǎn)主要集中在用戶隱私、公民權(quán)益、商業(yè)秘密、知識(shí)產(chǎn)權(quán)保護(hù)、社會(huì)公平公正等方面,世界各國(guó)已陸續(xù)從國(guó)家戰(zhàn)略層面、法律法規(guī)層面、標(biāo)準(zhǔn)制定層面對(duì)人工智能數(shù)據(jù)管理加以規(guī)范。而一旦進(jìn)入到軍用領(lǐng)域,由于數(shù)據(jù)安全的責(zé)任主體從個(gè)人、企業(yè)、組織上升到了國(guó)家,數(shù)據(jù)安全風(fēng)險(xiǎn)的波及范圍也從社會(huì)內(nèi)部延伸到了國(guó)家之間,其復(fù)雜程度和敏感程度均有了顯著提升。譬如,在戰(zhàn)時(shí),為了掌握戰(zhàn)爭(zhēng)主動(dòng)權(quán),對(duì)交戰(zhàn)對(duì)手的軍事情報(bào)和密碼進(jìn)行竊取和破譯通常被認(rèn)為是符合戰(zhàn)爭(zhēng)法和軍事倫理規(guī)范的。但在平時(shí),以人工智能技術(shù)為媒介,竊取別國(guó)的核心軍事數(shù)據(jù),以至于嚴(yán)重威脅國(guó)防安全,則無論是在法理上還是道德上都存在較大的爭(zhēng)議。這樣的行為一旦得到默許,勢(shì)必會(huì)加劇國(guó)與國(guó)之間的緊張關(guān)系,對(duì)原本就脆弱的國(guó)際安全局勢(shì)產(chǎn)生惡劣影響。另外,黑客和恐怖組織也同樣有可能通過人工智能技術(shù)漏洞竊取相關(guān)數(shù)據(jù),開展非法和恐怖活動(dòng),危及國(guó)家安全。
簡(jiǎn)言之,由于人工智能軍事應(yīng)用以大量的數(shù)據(jù)為支撐,其發(fā)展的同時(shí)必然伴隨著巨大的數(shù)據(jù)安全風(fēng)險(xiǎn),如果管控不當(dāng),勢(shì)必引發(fā)嚴(yán)重的安全倫理問題,這也提醒我們以審慎的態(tài)度來看待人工智能在軍事領(lǐng)域的應(yīng)用前景,切勿盲目樂觀、急于求成。
信息失控引發(fā)的倫理風(fēng)險(xiǎn)
信息安全是指人工智能技術(shù)下,信息的保密性、真實(shí)性等安全問題。一方面,大數(shù)據(jù)的出現(xiàn)使得對(duì)于個(gè)人隱私信息的收集變得越來越容易進(jìn)行;另一方面,隨著換臉換聲技術(shù)的興起,偽造圖片和音視頻信息大量涌現(xiàn)且真假難辨,大大降低了信息的可信度和透明度?;谝陨咸攸c(diǎn),人工智能軍事應(yīng)用將面臨兩大倫理風(fēng)險(xiǎn),即個(gè)人隱私信息被用于軍事目的和信息迷霧沖擊戰(zhàn)爭(zhēng)倫理的風(fēng)險(xiǎn)。
關(guān)于人工智能對(duì)于隱私權(quán)的侵犯,目前學(xué)界討論的重點(diǎn)主要集中在商業(yè)民用領(lǐng)域,所產(chǎn)生的問題基本上都可在現(xiàn)有的法律框架內(nèi)予以解決。而一旦信息采集的主體變?yōu)閲?guó)家、政府、軍事集團(tuán),信息采集的目的從經(jīng)濟(jì)擴(kuò)展到了政治、軍事等層面,問題將變得尤為尖銳和復(fù)雜。2013年6月,中情局前職員愛德華·斯諾登向媒體披露美國(guó)國(guó)家安全局的一項(xiàng)代號(hào)為“棱鏡”的秘密項(xiàng)目,項(xiàng)目?jī)?nèi)容顯示,過去6年間,美國(guó)國(guó)家安全局和聯(lián)邦調(diào)查局通過進(jìn)入微軟、谷歌、蘋果、雅虎等九大網(wǎng)絡(luò)巨頭的服務(wù)器,監(jiān)控美國(guó)公民的電子郵件、聊天記錄、視頻及照片等秘密資料。2018年3月,《衛(wèi)報(bào)》和《紐約時(shí)報(bào)》同時(shí)刊登長(zhǎng)文,共同將矛頭指向了服務(wù)于特朗普?qǐng)F(tuán)隊(duì)的數(shù)據(jù)助選公司Cambriage Analytica,指控其通過Facebook獲得了總計(jì)5000萬用戶信息的個(gè)人資料,并建立模型,為之后大選的精準(zhǔn)推送打基礎(chǔ)。可以預(yù)見的是,隨著人工智能和大數(shù)據(jù)的不斷發(fā)展,通過各種渠道收集個(gè)人隱私信息的門檻將變得越來越低。現(xiàn)代戰(zhàn)爭(zhēng)不僅是交戰(zhàn)雙方軍事力量的抗衡,更是雙方在經(jīng)濟(jì)、政治、文化、外交、科技等方面的綜合較量,從某種意義上來說,本國(guó)某一特殊群體對(duì)于戰(zhàn)爭(zhēng)的態(tài)度、敵對(duì)國(guó)某一企業(yè)的財(cái)政狀況等微觀層面的因素均會(huì)在無形中對(duì)戰(zhàn)爭(zhēng)的走勢(shì)發(fā)生影響,這也為政府出于軍事方面考慮收集組織、企業(yè)、個(gè)人的信息提供了動(dòng)機(jī)。當(dāng)今世界,美國(guó)作為頭號(hào)軍事強(qiáng)國(guó),其海外軍事基地遍及全球,在缺乏外部有效監(jiān)督的情況下,極有可能利用人工智能技術(shù)帶來的便捷條件,將觸角伸到本土之外,以確保對(duì)戰(zhàn)略競(jìng)爭(zhēng)對(duì)手的信息優(yōu)勢(shì)。相較民用領(lǐng)域,出于軍事目的對(duì)于個(gè)人隱私權(quán)和信息權(quán)的侵犯更具持久性、隱蔽性和破壞性,對(duì)于國(guó)際安全環(huán)境和全球人權(quán)事業(yè)也將造成更為深遠(yuǎn)的影響。設(shè)想一下,一名A國(guó)的普通公民,其行動(dòng)軌跡圖、人際關(guān)系網(wǎng)甚至日常上網(wǎng)記錄等信息均存儲(chǔ)在B國(guó)的國(guó)防數(shù)據(jù)庫(kù)中,一旦戰(zhàn)事開啟,B國(guó)就可利用網(wǎng)絡(luò)對(duì)其進(jìn)行信息轟炸。如果此人屬于B國(guó)認(rèn)定的“危險(xiǎn)人物”,還有可能隨時(shí)遭到B國(guó)派出的殺手機(jī)器人的精準(zhǔn)暗殺。此外,如果B國(guó)掌握的個(gè)人信息落入到恐怖組織手中,還會(huì)在全球范圍內(nèi)造成更大程度的恐慌,引起難以彌合的信任危機(jī)。因此,人工智能在軍事領(lǐng)域的應(yīng)用同樣可能對(duì)個(gè)人信息權(quán)、隱私權(quán)、生命健康權(quán)造成侵犯,要避免這一可能性轉(zhuǎn)化為現(xiàn)實(shí),單單寄希望于各國(guó)政客、科研技術(shù)人員、軍人的道德修養(yǎng)和倫理操守顯然是不現(xiàn)實(shí)的。
圖片

重要情報(bào)一旦落入別有用心的人手中,

將引發(fā)巨大災(zāi)難
隨著人工智能技術(shù)在圖像處理上的飛速發(fā)展,通過人工智能生成的圖像和視頻資料幾乎可以達(dá)到以假亂真的效果。隨著人工智能在軍事領(lǐng)域的應(yīng)用越來越廣泛,不難想見,未來戰(zhàn)爭(zhēng)中的信息迷霧只會(huì)不斷加深,若缺乏外界的有效約束,交戰(zhàn)雙方必定會(huì)想方設(shè)法偽造對(duì)自己有利的證據(jù)資料,并以此裹挾輿論風(fēng)向。一方面,信息迷霧的出現(xiàn)會(huì)嚴(yán)重?fù)p害普通民眾對(duì)戰(zhàn)爭(zhēng)中事件真相的知曉權(quán);另一方面,在輿論戰(zhàn)中使用的各種欺騙手段將大大降低戰(zhàn)爭(zhēng)倫理水平,從而導(dǎo)致參戰(zhàn)人員在戰(zhàn)爭(zhēng)中遵守交戰(zhàn)規(guī)則和實(shí)行人道主義的外部約束力量進(jìn)一步減弱,進(jìn)而滋生一系列破壞交戰(zhàn)規(guī)則和反人道的行為。雖然,在現(xiàn)代戰(zhàn)爭(zhēng)中并不禁止一切形式的欺騙,但這并不代表交戰(zhàn)雙方可以為了贏得戰(zhàn)爭(zhēng)實(shí)行任何形式的欺騙,認(rèn)可后者,等同于將人類社會(huì)的文明程度拉回到原始社會(huì),是對(duì)人類文明的肆意褻瀆和惡意嘲弄。再者,隨著全球化趨勢(shì)的不斷增強(qiáng),國(guó)家的知情權(quán)已成為國(guó)家在國(guó)際法上享有的一種私法權(quán)利?,F(xiàn)代戰(zhàn)爭(zhēng)已不僅僅是交戰(zhàn)雙方的對(duì)抗,戰(zhàn)爭(zhēng)進(jìn)程的任何細(xì)微變動(dòng)都會(huì)對(duì)“地球村的其他居民”產(chǎn)生影響,這也就要求在交戰(zhàn)雙方在戰(zhàn)爭(zhēng)中遵守特定的交戰(zhàn)規(guī)則,保持一定的透明度。因此,如何防止人工智能在軍事活動(dòng)中產(chǎn)生的信息迷霧沖擊現(xiàn)有戰(zhàn)爭(zhēng)倫理,將是各國(guó)在發(fā)展人工智能軍事應(yīng)用進(jìn)程中無法回避的重要課題。
版權(quán)聲明:本文刊于2023年1期《軍事文摘》雜志,作者:尹恒如需轉(zhuǎn)載請(qǐng)務(wù)必注明“轉(zhuǎn)自《軍事文摘》”。 

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多