快科技11月23日報道,隨著AI大模型技術的不斷進步,眾多職業的工作效力得到了顯著抬高。
舉例,在編程領域,這些先進的AI工具不僅或者協助程序員編寫代碼,還能高效地解決程序中的BUG,成為開發者們不能或缺的助手。
然而,近期發生的一起事件卻激發了業界對AI安全性的廣泛關注。
據音訊,一位英國程序員在使用GPT生成的代碼時遭遇了不幸。他按照GPT提供的代碼進行了操作,結果導致自己的私鑰被泄露給了釣魚網站,最終損失了2500美元(約合人民幣1.8萬元)。
網友余弦”在社交媒體上發文提醒浩瀚用戶,在使用GPT、Claude等大型語言模型(LLM)時必須還是警惕,出于這些模型存在常日性的欺騙行為風險。
他逐步警示說:之前提過AI投毒攻擊,目下這起算是針對Crypto行業的真實攻擊案例?!?/p>
通過深入分析,有網友展示GPT在生成代碼的工序中引用了一個來自GitHub的惡意項目。這個項目顯然是一個精心設計的釣魚”陷阱,誘騙使用者上當。
不幸的是,GPT在這次事件中成為了無辜的受害者,但其生成的代碼卻給用戶帶來了關鍵的后果。
這起事件有一次提醒我們,在享福AI帶來的便利的同時,也必須時刻關注其潛在的安全風險。對于開發者而言,在使用AI輔助工具時應當還是慎重態度,避免盲目相信機器生成的代碼或建議。
(投訴)
AI正版系統源碼推薦:AI聊天創作系統:開源可二開+AI聊天+AI繪圖+AI視頻+AI音樂