原標題:AI詐騙上熱搜!長相聲音都對,“換臉”的“朋友”騙了他430萬…
隨著人工智能的迅猛發展,詐騙團伙的詐騙手段也越來越科技化,竟然用上了AI換臉技術。
近日,包頭警方發布一起利用AI實施電信詐騙的典型案例。4月20日中午,郭先生的好友突然通過微信視頻聯系他,自己的朋友在外地競標,需要430萬保證金?;趯糜训男湃?,加上已經視頻聊天核實了身份,郭先生分兩筆把430萬轉到了好友朋友的銀行卡,期間也沒有核實錢款是否到賬。此后,郭先生撥打好友電話,才知道被騙。騙子通過智能AI換臉和擬聲技術,佯裝好友對他實施了詐騙。
幸運的是,接到報警后,福州、包頭兩地警銀迅速啟動止付機制,成功止付攔截336.84萬元,但仍有93.16萬元被轉移,目前正在全力追繳中。
案件披露后,“AI詐騙正在全國爆發”話題一度沖上熱搜第一,引發網友熱議。
科技公司老板10分鐘被騙走430萬元
4月20日11時40分左右,福州市某科技公司法人代表郭先生的好友突然通過微信視頻聯系到他,兩人經過短暫聊天后,好友告訴郭先生,自己的朋友在外地投標,需要430萬元保證金,且需要公對公賬戶過賬,所以想要借用郭先生公司的賬戶走一下賬。好友向郭先生要了銀行卡號,聲稱已經把錢打到郭先生的賬戶上,還把銀行轉賬底單的截圖通過微信發給了郭先生?;谝曨l聊天信任的前提下,郭先生沒有核實錢是否到賬,于11時49分先后分兩筆把430萬元給對方打了過去。錢款轉賬后,郭先生給好友微信發了一條消息,稱事情已經辦妥。但讓他沒想到的是,好友回過來的消息竟然是一個問號。
郭先生撥打好友電話,對方說沒有這回事,他這才意識到竟然遇上了“高端”騙局,對方通過智能AI換臉技術,佯裝成好友對他實施了詐騙。
“從頭到尾都沒有和我提借錢的事情,就說會先把錢給我打過來,再讓我給他朋友賬戶轉過去,而且當時是給我打了視頻的,我在視頻中也確認了面孔和聲音,所以才放松了戒備?!惫壬f。
4月20日12時21分,包頭市電信網絡犯罪偵查局接到福建省福州市公安局刑偵支隊的外協請求,稱福建省一知名民營企業負責人被騙走430萬元,而涉案的銀行卡為包頭市蒙商銀行對公賬戶,希望包頭警方能夠幫忙進行緊急止付。
包頭市公安局電信網絡犯罪偵查局立即啟動“包頭市警銀聯動綠色查詢機制”,當班民警以最快速度完成核查、報審程序,第一時間將涉案卡的信息通報至蒙商銀行相關部門。在銀行的全力協助下,僅用時10分鐘,就將該詐騙賬戶內的336.84萬元被騙資金成功攔截。同時,向福州市公安局警方提供了剩余款項93.16萬元資金流出信息,為深入突破該案剩余資金查找提供了突破方向。目前,福建警方與包頭警方對此資金正在全力追繳當中。
對此,包頭警方提示:針對花樣翻新的智能AI詐騙,公眾要提高防范意識,不輕易提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻等;網絡轉賬前要通過電話等多種溝通渠道核驗對方身份,一旦發現風險,及時報警求助。如果有人自稱“熟人”、“領導”通過社交軟件、短信以各種理由誘導你匯款,務必通過電話、見面等途徑核實確認,不要未經核實隨意轉賬匯款,不要輕易透露自己的身份證、銀行卡、驗證碼等信息。如不慎被騙或遇可疑情形,請注意保護證據立即撥打96110報警。
AI詐騙層出不窮
隨著ChatGPT和各類AI技術的廣泛應用,AI詐騙手段日漸豐富,各類案件層出不窮。
4月7日,浙江杭州蕭山區檢察院曝光的一個“女神群”引發關注。
據了解,80后安徽小伙虞某在網上推廣AI換臉技術及相關的軟件從中獲利。為吸引他人關注,虞某將原本“換臉軟件資源群”的群名更改為“女神試看群”,通過互聯網下載了部分淫穢視頻,截取片段后發布在該公開群中,吸引、招攬觀看者加入,觀看者若要看完整版則需繳納198元-498元不等的“會費”進入“內部群”。此外,虞某表示,顧客還能使用不同的女明星的形象,進行“私人定制”。截至案發,公安機關共在虞某所組建的公開群內查證淫穢視頻1200余部、圖片1600余張,經鑒定,上述均系淫穢物品。2023年3月28日,蕭山區檢察院依法以制作、傳播淫穢物品牟利罪對虞某提起公訴。案件目前正在法院審理中。
對此,蕭山檢察官提醒,“AI換臉技術”即便只是用來搞笑或者制作惡搞照片,也有可能涉及侵犯肖像權、名譽權,造成嚴重后果的,還可能構成侮辱罪或者誹謗罪。希望大家依法使用該項技術,一旦遇到類似本案中利用“AI換臉技術”實施犯罪行為的,應第一時間固定證據,并及時向司法機關報案。
多起AI換臉事件也引起了網友的熱議:
除利用AI換臉詐騙外,還有人利用ChatGPT炮制不實信息。不久前,甘肅平涼市公安局網安大隊就偵破一起類似案件。
4月25日,平涼市公安局崆峒分局網安大隊在日常網絡巡查中發現,某百度賬號出現一篇標題為“今晨甘肅一火車撞上修路工人 致9人死亡”的文章,初步判斷為信息虛假不實。
民警發現,共計21個百度賬號在同一時間段發布該文章,文章內容地點涉及全國多地。經查,涉案百度賬號均為深圳某自媒體公司所有,其法人代表洪某弟有重大作案嫌疑。原來,洪某弟購買大量“百家號” ,并通過ChatGPT人工智能軟件將搜集到的熱點新聞修改編輯,隨后上傳賺取大量流量獲利。目前,洪某弟已被采取刑事強制措施,案件正進一步偵辦中。
查處現場
三部門發布《互聯網信息服務深度合成管理規定》
針對技術手段日益更新的AI詐騙事件,2022年11月25日,國家互聯網信息辦公室、工業和信息化部、公安部聯合發布《互聯網信息服務深度合成管理規定》(以下簡稱《規定》),自2023年1月10日起施行。國家互聯網信息辦公室有關負責人表示,出臺《規定》,旨在加強互聯網信息服務深度合成管理,弘揚社會主義核心價值觀,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益。
近年來,深度合成技術快速發展,在服務用戶需求、改進用戶體驗的同時,也被一些不法人員用于制作、復制、發布、傳播違法和不良信息,詆毀、貶損他人名譽、榮譽,仿冒他人身份實施詐騙等,影響傳播秩序和社會秩序,損害人民群眾合法權益,危害國家安全和社會穩定。出臺《規定》,是防范化解安全風險的需要,也是促進深度合成服務健康發展、提升監管能力水平的需要。
圖片來源:@人民日報微博截圖
《規定》明確了深度合成數據和技術管理規范。要求深度合成服務提供者和技術支持者加強訓練數據管理和技術管理,保障數據安全,不得非法處理個人信息,定期審核、評估、驗證算法機制機理。深度合成服務提供者對使用其服務生成或編輯的信息內容,應當添加不影響使用的標識。提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內容功能的服務的,應當進行顯著標識,避免公眾混淆或者誤認。要求任何組織和個人不得采用技術手段刪除、篡改、隱匿相關標識。
AI詐騙常用手法
第一種: 聲音合成
騙子通過騷擾電話錄音等來提取某人聲音,獲取素材后進行聲音合成,從而可以用偽造的聲音騙過對方。
案例
某公司財務小王接到領導電話,要求立刻給供應商轉款2萬元,并將轉賬信息以郵件形式發送,轉款理由是避免繳納滯納金。由于老板的口音十分逼真,小王信以為真,在1小時內轉款完成,后發現被騙。
第二種:AI換臉
人臉效果更易取得對方信任,騙子用AI技術換臉,可以偽裝成任何人,再通過視頻方式進行信息確認,真是防不勝防!
騙子首先分析公眾發布在網上的各類信息,根據所要實施的騙術,通過AI技術篩選目標人群。在視頻通話中利用AI換臉,騙取信任。
案例
近日,小李的大學同學通過QQ跟她借錢。對方打過來一段四五秒的視頻電話,小李看到確實是本人,便放心轉賬3000元。然而,她在第二次轉賬時感覺異常,便再次撥通對方電話,這才得知同學的賬號被盜,遂報案。警方判斷,那段視頻很有可能是被人換了臉。
第三種:轉發微信語音
微信語音居然也能轉發,這操作簡直了!騙子在盜取微信號后,便向其好友“借錢”,為取得對方的信任,他們會轉發之前的語音,進而騙取錢款。
盡管微信沒有語音轉發功能,但他們通過提取語音文件或安裝非官方版本(插件),實現語音轉發。
第四種:通過AI技術篩選受騙人群
騙子不是漫無目的地全面撒網,而是別有用心地鎖定特定對象。他們會根據所要實施的騙術對人群進行篩選,從而選出目標對象。
舉個栗子:當進行金融詐騙時,經常搜集投資信息的小伙伴會成為他們潛在的目標。
運用AI技術,再加上套路和劇本的演繹,這樣的詐騙手段,小伙伴們能hold住嗎?
如何防范?
面對利用AI人工智能等新型手段的詐騙,我們要牢記以下幾點:
多重驗證,確認身份
在涉及到轉賬交易等行為時,小伙伴們要格外留意,可以通過電話、視頻等方式確認對方是否是本人。
在無法確認對方身份時,可以將到賬時間設定為“2小時到賬”或者“24小時到賬”,以預留處理時間。盡量通過電話詢問具體信息,確認對方是否為本人。
即便對方運用AI技術行騙,也可以通過提問的方式進一步確認身份。建議大家最好向對方的銀行賬戶轉賬,避免通過微信等社交軟件轉賬。一方面有利于核實對方身份,另一方面也有助于跟進轉賬信息。
保護信息,避免誘惑
加強個人信息保護意識,小伙伴們要謹防各種信息泄露,不管是在互聯網上還是社交軟件上,盡量避免過多地暴露自己的信息。
對于不明平臺發來的廣告、中獎、交友等鏈接提高警惕,不隨意填寫個人信息,以免被騙子“精準圍獵”。
相互提示,共同預防
這些高科技手段的詐騙方式,迷惑了很多小伙伴。警察蜀黎也提示各位要多多提醒、告誡身邊的親人、朋友提高安全意識和應對高科技詐騙的能力,共同預防受騙。
做好家中老人的宣傳防范工作。提醒老年人在接到電話、短信時,要放下電話,再次撥打家人電話確認,不要貿然轉賬。
拒絕誘惑,提高警惕
小伙伴們要學會拒絕誘惑,提高警惕。避免占便宜心理,警惕陌生人無端“獻殷勤”。
媒體聲音
針對近日出現的AI詐騙案例,光明日報微信發表評論,題為《用AI換臉來詐騙,防不勝防?》。評論認為,“AI詐騙看似一個新問題,其實又回到了個人信息保護上?!?/p>
詐騙分子之所以能夠鳥槍換炮,就是因為之前他們可以購買的是姓名、住址、親友關系等社會信息,而如今他們可以獲取人臉、人聲等生物信息了,并且可以利用技術軟件進行合成。那么,是誰在充當這個技術中介?這是非常重要的一環,只要打斷了這個中間環節,AI詐騙也就失去了技術前提。
從目前爆出的案例來看,對于AI詐騙,基本都是事后追查打擊,這其實是很被動的。接下來,治理AI詐騙的工作應該進一步前置,多在預防環節下功夫。而對個人信息的保護,就是最好的預防。
我們常說,科技是一把雙刃劍。如果前些年,科技的傷害之刃還處于一種“劃傷”階段,那么如今在一些領域已經出現“刺痛”感了。而疼痛是保持清醒最好的方式。眼下,看著別人被騙幾百萬,所有人都應該警惕,這樣的技術侵害是無差別的:任何人的臉與聲皆可合成,即使不被用于詐騙,誰又能保證不被用于其他侵害呢?
關于我們 |版權聲明 | 違法和不良信息舉報電話:010-84151598 | 網絡敲詐和有償刪帖舉報電話:010-84151598
Copyright ? 2008-2023 by www.1200clubviewcondo.com. all rights reserved