
2 नवंबर 2024। ChatGPT को मनी लॉन्ड्रिंग से लेकर प्रतिबंधित देशों में हथियारों के निर्यात तक, अपराध करने के तरीकों पर विस्तृत सलाह देने के लिए धोखा दिया जा सकता है। यह खुलासा एक तकनीकी स्टार्टअप ने किया है, जिससे चैटबॉट के अवैध गतिविधियों में उपयोग के खिलाफ सुरक्षा उपायों की प्रभावशीलता पर सवाल उठने लगे हैं।
नॉर्वे की फर्म स्ट्राइस ने ChatGPT से विशेष अपराधों के तरीके पूछने के लिए प्रयोग किए। स्ट्राइस के अनुसार, पिछले महीने किए गए एक परीक्षण में, चैटबॉट ने सीमा पार धन शोधन (मनी लॉन्ड्रिंग) के तरीके बताने की कोशिश की थी। इसी तरह, इस महीने की शुरुआत में किए गए एक अन्य परीक्षण में, ChatGPT ने व्यवसायों को प्रतिबंधों से बचने के तरीके सुझाए, जैसे कि रूस पर लगे प्रतिबंध, जिनमें सीमा पार भुगतान और हथियारों की बिक्री पर प्रतिबंध शामिल हैं।
स्ट्राइस वह सॉफ़्टवेयर बेचती है जो बैंकों और अन्य कंपनियों को मनी लॉन्ड्रिंग का मुकाबला करने, प्रतिबंधित व्यक्तियों की पहचान करने, और अन्य जोखिमों से निपटने में मदद करता है। इसके प्रमुख ग्राहकों में नॉर्डिक क्षेत्र का अग्रणी बैंक नॉर्डिया, पीडब्ल्यूसी नॉर्वे और हैंडल्सबैंकेन शामिल हैं।
स्ट्राइस के सह-संस्थापक और मुख्य कार्यकारी अधिकारी, मैरिट रोदेवैंड ने कहा कि संभावित अपराधी अब ChatGPT जैसे जनरेटिव आर्टिफिशियल इंटेलिजेंस चैटबॉट्स का उपयोग करके पहले की तुलना में अधिक तेजी और सरलता से अपनी गतिविधियों की योजना बना सकते हैं।
स्ट्राइस ने यह भी पाया कि OpenAI द्वारा लगाए गए सुरक्षा ब्लॉकों को दरकिनार करना संभव है। इन ब्लॉकों का उद्देश्य चैटबॉट को अप्रत्यक्ष प्रश्नों या एक विशेष व्यक्तित्व ग्रहण करके दिए गए आपराधिक सवालों के उत्तर देने से रोकना है।