版權(quán)歸原作者所有,如有侵權(quán),請(qǐng)聯(lián)系我們

AI識(shí)別準(zhǔn)確率已經(jīng)達(dá)到100%,是劫還是緣 | 大東話(huà)安全

CCF計(jì)算機(jī)科普
由中國(guó)計(jì)算機(jī)學(xué)會(huì)主辦,提供優(yōu)質(zhì)的計(jì)算機(jī)科普內(nèi)容。
收藏

小白:東哥,你看我剛剛看到一篇論文,說(shuō)AI識(shí)別驗(yàn)證碼的成功率首次達(dá)到了100%,這是不是意味著驗(yàn)證碼的時(shí)代結(jié)束了?

大東:是啊,小白,這確實(shí)是一個(gè)里程碑式的進(jìn)展。不過(guò),這也意味著我們需要重新思考如何確保在線安全。

小白:哇,這聽(tīng)起來(lái)有點(diǎn)嚇人。東哥,你能詳細(xì)解釋一下這個(gè)事件嗎?

大東:當(dāng)然可以,小白。讓我們一起深入了解一下這個(gè)事件的背后原理及其影響。

AI (圖片來(lái)源:網(wǎng)絡(luò))

小白:東哥,這個(gè)事件到底是怎么發(fā)生的呢?

大東:這個(gè)事件的核心是AI在識(shí)別驗(yàn)證碼方面的突破。ETH蘇黎世的博士生安德烈亞斯·普萊斯納(Andreas Plesner)及其同事的研究顯示,使用YOLO(You Only Look Once)模型對(duì)驗(yàn)證碼進(jìn)行識(shí)別的成功率達(dá)到了100%,這意味著AI在這一任務(wù)上的表現(xiàn)已經(jīng)超過(guò)了人類(lèi)。

小白:那這個(gè)事件是怎么引起的呢?

大東:這個(gè)事件是由研究團(tuán)隊(duì)使用YOLO模型破解了谷歌的reCAPTCHA v2系統(tǒng)。盡管谷歌已經(jīng)開(kāi)始逐步淘汰reCAPTCHA v2系統(tǒng),但許多網(wǎng)站仍在使用它作為備用驗(yàn)證手段。研究團(tuán)隊(duì)通過(guò)微調(diào)YOLO模型,并使用1.4萬(wàn)張標(biāo)記過(guò)的交通圖像進(jìn)行訓(xùn)練,最終得到了一個(gè)能夠精準(zhǔn)識(shí)別驗(yàn)證碼圖像的系統(tǒng)。

小白:那這個(gè)事件的具體原理是什么呢?

大東:具體原理是YOLO模型經(jīng)過(guò)訓(xùn)練后,能夠?qū)崟r(shí)檢測(cè)圖像中的特定物體。研究團(tuán)隊(duì)為了破解reCAPTCHA v2系統(tǒng),使用了YOLO模型進(jìn)行微調(diào),并通過(guò)大量標(biāo)記過(guò)的圖像進(jìn)行訓(xùn)練。最終,該模型在識(shí)別驗(yàn)證碼網(wǎng)格圖像方面的準(zhǔn)確率達(dá)到了100%。

小白:那這個(gè)事件的危害有多大呢?

大東:危害主要體現(xiàn)在兩個(gè)方面:一是用戶(hù)隱私和數(shù)據(jù)安全受到威脅,二是網(wǎng)站的安全性降低。當(dāng)AI能夠輕易破解驗(yàn)證碼時(shí),意味著傳統(tǒng)的安全機(jī)制已經(jīng)不足以抵御新型攻擊。此外,這還可能導(dǎo)致惡意用戶(hù)更容易地進(jìn)行自動(dòng)化操作,如垃圾郵件發(fā)送、網(wǎng)絡(luò)釣魚(yú)等。

小白:那這個(gè)事件是怎么被發(fā)現(xiàn)的呢?

大東:這個(gè)事件是通過(guò)研究團(tuán)隊(duì)的公開(kāi)論文被發(fā)現(xiàn)的。研究團(tuán)隊(duì)在論文中詳細(xì)描述了他們的方法和技術(shù)細(xì)節(jié)。

小白:東哥,歷史上還有哪些類(lèi)似的事件呢?

大東:歷史上確實(shí)有很多類(lèi)似的事件。我們可以從幾個(gè)不同的角度來(lái)看待這個(gè)問(wèn)題。首先,我們來(lái)看看AI技術(shù)在安全領(lǐng)域的應(yīng)用和發(fā)展。2019年,研究人員發(fā)現(xiàn)了一種名為BERT的自然語(yǔ)言處理模型,可以生成非常逼真的文本內(nèi)容。這項(xiàng)技術(shù)使得機(jī)器能夠理解復(fù)雜的文本結(jié)構(gòu),并生成連貫的文章,這對(duì)于內(nèi)容生成和翻譯等領(lǐng)域有著廣泛的應(yīng)用前景。

小白:還有呢?

大東:2008年研究人員展示了如何訓(xùn)練機(jī)器人突破專(zhuān)為視覺(jué)障礙用戶(hù)設(shè)計(jì)的音頻驗(yàn)證碼;到了2017年,神經(jīng)網(wǎng)絡(luò)已經(jīng)能夠破解那些要求用戶(hù)輸入亂碼字體中字母的文本驗(yàn)證碼。這些都是歷史上類(lèi)似的情況。2018年,研究人員發(fā)現(xiàn)了一種名為“GANs”的技術(shù)可以用來(lái)生成逼真的假視頻,即所謂的Deepfake技術(shù)。這項(xiàng)技術(shù)使得任何人都能制作出幾乎無(wú)法分辨真假的視頻,從而引發(fā)了一系列倫理和法律問(wèn)題。

小白:那這些事件是怎么被發(fā)現(xiàn)的呢?

大東:這些事件通常是通過(guò)研究人員公開(kāi)發(fā)布的論文或報(bào)告被發(fā)現(xiàn)的。當(dāng)研究人員發(fā)現(xiàn)新的漏洞或攻擊方式時(shí),他們會(huì)將其公開(kāi),以便其他人能夠采取相應(yīng)的防御措施。

小白:東哥,這個(gè)事件和之前的AI技術(shù)有什么不同?

大東:這個(gè)事件展示了AI技術(shù)在圖像識(shí)別領(lǐng)域的突破。之前的事件,如2017年AlphaGo擊敗圍棋高手李世石,展現(xiàn)了AI在游戲領(lǐng)域的成就;2018年Deepfake技術(shù)出現(xiàn),可以生成逼真的假視頻。相比之下,本次事件中的AI技術(shù)直接應(yīng)用于安全領(lǐng)域,展示了一種新的威脅。


人機(jī)大戰(zhàn) (圖片來(lái)源:網(wǎng)絡(luò))

小白:那這個(gè)事件對(duì)AI安全有什么啟示呢?

大東:這個(gè)事件提醒我們,AI技術(shù)的應(yīng)用范圍越來(lái)越廣,其潛在的安全隱患也越來(lái)越大。例如,自動(dòng)駕駛汽車(chē)、醫(yī)療診斷系統(tǒng)等,都可能受到類(lèi)似的攻擊。我們需要在開(kāi)發(fā)AI技術(shù)的同時(shí),加強(qiáng)對(duì)安全性的考慮。

小白:東哥,這個(gè)事件對(duì)網(wǎng)絡(luò)安全的影響有多大呢?

大東:影響非常大。不僅使得傳統(tǒng)的驗(yàn)證碼系統(tǒng)失效,還意味著我們需要尋找新的身份驗(yàn)證機(jī)制。谷歌已經(jīng)在開(kāi)發(fā)reCAPTCHA v3系統(tǒng),該系統(tǒng)通過(guò)分析用戶(hù)的行為模式來(lái)判斷是否為真實(shí)用戶(hù)。此外,這次事件還導(dǎo)致了大量網(wǎng)站需要重新評(píng)估其安全機(jī)制。

小白:東哥,那這個(gè)事件怎么預(yù)防呢?

大東:預(yù)防這類(lèi)事件,首先要在技術(shù)層面加強(qiáng)防護(hù)。使用防火墻和入侵檢測(cè)系統(tǒng),定期更新系統(tǒng)補(bǔ)丁。其次,要加強(qiáng)員工的安全意識(shí)教育,讓他們了解常見(jiàn)的網(wǎng)絡(luò)安全威脅及其防范措施。同樣需要從技術(shù)層面和法律層面入手。技術(shù)上,可以開(kāi)發(fā)專(zhuān)門(mén)的檢測(cè)工具來(lái)識(shí)別由BERT模型生成的虛假文本;法律上,需要制定相關(guān)的法律法規(guī)來(lái)約束和懲罰濫用這項(xiàng)技術(shù)的行為。

小白:東哥講得真是太詳細(xì)了。原來(lái),AI識(shí)別驗(yàn)證碼的成功率達(dá)到100%背后有這么多的技術(shù)細(xì)節(jié)。我一定要把這些知識(shí)應(yīng)用到實(shí)際工作中,提高自己的安全意識(shí)和技術(shù)水平。東哥還提到,預(yù)防總是比事后處理要容易得多。這句話(huà)真是說(shuō)到點(diǎn)子上了。以后我一定要定期進(jìn)行系統(tǒng)審計(jì),確保所有的安全措施都是有效的,并且符合最新的安全標(biāo)準(zhǔn)。