科技有時也是一把雙刃劍,用得好就能為人類服務,用得不好就會成為犯罪工具。 隨著人工智能技術(shù)的不斷發(fā)展,AI詐騙已經(jīng)成為了一種新型的犯罪手段。騙子利用聲音合成、AI換臉等技術(shù),偽造身份,進行詐騙活動。 這種犯罪手段的危害性極大,不僅會給人們的財產(chǎn)安全帶來威脅,還會破壞人們對于互聯(lián)網(wǎng)的信任。 近日,“AI詐騙正在全國爆發(fā)”沖上熱搜,讓不少網(wǎng)友直言個人財產(chǎn)安全有可能受到威脅。對于AI詐騙,除了警方重拳打擊外,預防也很關(guān)鍵。筆者對這個問題也問過AI,而AI也給出了相關(guān)的建議。 據(jù)媒體報道,這段時間,多地警方發(fā)現(xiàn)現(xiàn)在有犯罪分子利用AI換臉技術(shù)和AI聲音合成技術(shù)假扮受害人的朋友、同事或親人,通過視頻電話和語音電話來獲取受害人的信任去進行詐騙錢財。福建有人被騙430萬,雖然警方著手破案,追回了336.84萬,但有小部分財產(chǎn)仍在追繳中。 還有浙江和上海的市民同樣被騙子利用AI的新型犯罪手段給騙了錢,涉案金額由數(shù)萬元到一百多萬元不等, 除此之外,浙江溫州有女子報警稱,被人利用AI換臉技術(shù),把她的相貌換到了不雅視頻中的女主角身上,然后犯罪分子以視頻為要挾,對女子進行敲詐勒索。 對于這種新型技術(shù)犯罪手段讓人觸目驚心,使受害者防不勝防,令人痛恨深絕,警主在出重拳予以打擊外,作為守法市民,必須要有警惕防備之心,因為害人之心不可有,防人之心不可無。 如何預防AI詐騙很關(guān)鍵,平時我們一定要保護好個人信息。騙子利用AI技術(shù)分析公眾發(fā)布在網(wǎng)上的各類信息,根據(jù)所要實施的騙術(shù)對人群進行篩選,從而實施精準詐騙。因此,我們要注意保護好自己的個人信息,不要隨意在網(wǎng)上留下個人信息,如果不被騙子認識,那他想騙你也無從下手了。 其次,要提高安全意識。騙子通過聲音合成、AI換臉等方式進行詐騙,很容易讓人信以為真。因此,我們要提高安全意識,不要輕易網(wǎng)上好友所說的話,尤其是在涉及到金錢交易時更要謹慎。 同時,希望警方繼續(xù)加強對AI詐騙的打擊力度,對于AI詐騙的行為,要依法嚴懲,讓犯罪分子付出應有的代價。 此外,相關(guān)部門還應該加強宣傳和教育,提高公眾的安全意識,讓更多人了解AI詐騙的危害和預防措施,從而減少受騙人數(shù)。 對此,怎樣識別和預防AI詐騙,筆者對此也詢問了AI智能,得出如下建議: 1. 確認對話對象的身份:在語音或視頻通話開始前,盡量通過其他渠道確認對話對象的真實身份,例如使用短信或其他信道聯(lián)系對方。 2. 保留警惕心:如果你接到的電話讓你感到可疑或你發(fā)現(xiàn)與其他平時通話的人存在相似之處,比如語音、口音、重要細節(jié)的缺失等,不要沖動地接受或者信任,并考慮利用其他方法進行確認。 3. 使用多種確認方式:不要依賴單一的通信方式,比如語音或者視頻通話,盡可能使用其他方式進行確認,最好能見面相議。 4. 保護個人信息:不向陌生人透露個人信息,尤其是與金融相關(guān)的重要信息,同時設(shè)置強密碼,多重驗證等安全措施。 5. 求助警方:如果你確認受騙,馬上報警并協(xié)助警方進行調(diào)查和處理。 關(guān)注我,不迷路,每天為你傳送最新最熱的資訊。 |
|