Stock spotlight:
मस्क का X: ग्रोक से अश्लील इमेज पर रोक, निवेश पर असर? उद्योग X Halts Grok Nudity Generation
सत्यालेख की रिपोर्ट के अनुसार, इलॉन मस्क की कंपनी X ने अपने AI टूल ग्रोक (Grok) से अश्लील इमेज बनाने पर दुनियाभर में रोक लगा दी है।
यह निर्णय महिलाओं और बच्चों की तस्वीरों के दुरुपयोग संबंधी शिकायतों के बाद लिया गया है, जिससे प्लेटफॉर्म पर सुरक्षा को लेकर चिंताएं बढ़ गई थीं।
अब, यूजर्स ग्रोक का उपयोग करके किसी भी वास्तविक व्यक्ति की ऐसी तस्वीर नहीं बना पाएंगे जो आपत्तिजनक हो या जिसमें उन्हें कम कपड़ों में दिखाया गया हो।
यह प्रतिबंध पेड और अनपेड दोनों तरह के यूजर्स पर लागू होगा, जिसका उद्देश्य प्लेटफॉर्म को सुरक्षित रखना है।
X के सुरक्षा विभाग ने इस बदलाव की जानकारी देते हुए बताया कि तकनीकी स्तर पर ऐसे बदलाव किए गए हैं जिससे ग्रोक अब असली लोगों की बिना कपड़ों वाली तस्वीरें नहीं बना पाएगा।
इसमें बिकिनी जैसे कपड़ों वाली एडिटिंग पर भी पूरी तरह से रोक लगा दी गई है।
कंपनी का कहना है कि यह बदलाव इसलिए किया गया है ताकि किसी की निजता का उल्लंघन न हो और प्लेटफॉर्म का इस्तेमाल किसी को परेशान करने के लिए न किया जा सके।
इस कदम का उद्देश्य ऑनलाइन **उद्योग** में जिम्मेदार AI उपयोग को बढ़ावा देना है।
पिछले साल दिसंबर में कई महिलाओं ने X पर शिकायत की थी कि उनकी तस्वीरों का इस्तेमाल ग्रोक से यौन संबंधी इमेज बनाने में हो रहा है।
इस घटना के बाद IT मंत्रालय की साइबर लॉ डिविजन ने भी सक्रियता दिखाई थी।
इस घटनाक्रम का असर X में **निवेश** पर भी पड़ सकता है, क्यूंकि कई **शेयर** धारकों ने इस मामले में अपनी चिंता व्यक्त की है।
इस प्रकार के कंटेंट को रोकने से न केवल यूजर्स की सुरक्षा सुनिश्चित होगी, बल्कि **मार्केट** में X की छवि भी सुधरेगी, जिससे दीर्घकालिक **वित्त**ीय लाभ हो सकता है।
इन नियमों का कड़ाई से पालन X के भविष्य के लिए महत्वपूर्ण है, खासकर AI के क्षेत्र में, जहाँ गलत इस्तेमाल की संभावनाएँ हमेशा बनी रहती हैं।
- X ने ग्रोक AI से अश्लील इमेज बनाने पर लगाया वर्ल्डवाइड बैन।
- महिलाओं और बच्चों की तस्वीरों के दुरुपयोग की शिकायतों के बाद लिया फैसला।
- अब यूजर्स आपत्तिजनक या कम कपड़ों वाली तस्वीरें नहीं बना पाएंगे।
Related: Top Cricket Updates
Posted on 16 January 2026 | Stay updated with सत्यालेख.com for more news.
.jpg)
.jpg)
