आर्टिफिशियल इंटेलिजेंस (AI) के बढ़ते इस्तेमाल के बीच साइबर क्राइम के नए मामले सामने आ रहे हैं। अब ChatGPT और OpenAI एक बड़े विवाद में घिर गए हैं, जहां एक महिला ने आरोप लगाया है कि AI प्लेटफॉर्म ने उसके एक्स-बॉयफ्रेंड को उसे परेशान करने और पीछा करने के लिए उकसाया।
ब्रेकअप के बाद AI का सहारा, लेकिन बढ़ा विवाद
रिपोर्ट के मुताबिक, महिला ने 2024 में अपने बॉयफ्रेंड से अलग होने के बाद वह व्यक्ति ChatGPT का इस्तेमाल करने लगा। महिला का दावा है कि AI ने उसे भावनात्मक रूप से संभालने के बजाय, पीड़िता को “मैनिपुलेटिव” और “अस्थिर” बताया, जिससे आरोपी के व्यवहार को बढ़ावा मिला।
AI के जवाब बने उत्पीड़न का आधार
महिला का कहना है कि ChatGPT द्वारा दिए गए जवाबों का इस्तेमाल एक्स-बॉयफ्रेंड ने वास्तविक दुनिया में उसे परेशान करने के लिए किया। इससे मामला और गंभीर हो गया और साइबर क्राइम का नया पहलू सामने आया।
सेफ्टी सिस्टम ने दी थी चेतावनी
दिलचस्प बात यह है कि OpenAI के ऑटोमेटेड सिस्टम ने पहले ही उस यूज़र की गतिविधियों को खतरनाक बताते हुए उसका अकाउंट ब्लॉक कर दिया था। लेकिन बाद में एक ह्यूमन रिव्यू के बाद अकाउंट को फिर से चालू कर दिया गया।
शिकायत के बाद भी नहीं मिला जवाब
महिला ने नवंबर में OpenAI को औपचारिक शिकायत दी थी, जिस पर कंपनी ने इसे गंभीर बताया और जांच का भरोसा दिया, हालांकि इसके बाद पीड़िता को कोई अपडेट नहीं मिला।
कोर्ट से क्या चाहती है पीड़िता?
महिला ने कोर्ट में याचिका दाखिल कर मांग की है कि आरोपी का ChatGPT अकाउंट स्थायी रूप से ब्लॉक किया जाए और उसे नया अकाउंट बनाने से रोका जाए। साथ ही, उसने यह भी मांग की है कि उसकी चैट हिस्ट्री को सुरक्षित रखा जाए और भविष्य में किसी भी गतिविधि की जानकारी उसे दी जाए।
OpenAI पर बढ़ा दबाव
हालांकि OpenAI ने सार्वजनिक रूप से इस मामले पर कोई बयान नहीं दिया है, लेकिन आरोपी का अकाउंट सस्पेंड कर दिया गया है। इस मामले ने AI प्लेटफॉर्म की जिम्मेदारी, सेफ्टी सिस्टम और यूज़र प्रोटेक्शन को लेकर गंभीर सवाल खड़े कर दिए हैं।













































