मुंबई, 23 फरवरी, (न्यूज़ हेल्पलाइन) ऐसा लगता है कि Google जेमिनी AI विविधता के नाम पर बहुत गलत हो रहा है। सोशल मीडिया पोस्ट वायरल हो रहे हैं जिनमें जेमिनी द्वारा बनाई गई तस्वीरें जैसे कि काले पोप या गहरे रंग की वाइकिंग्स दिखाई जा रही हैं, इस तथ्य के बावजूद कि इन तस्वीरों का कोई ऐतिहासिक आधार नहीं है। लेकिन ऐसा लगता है कि जेमिनी ऐसा इसलिए कर रहा है क्योंकि वह "विविधता" को बढ़ावा देना चाहता है। दिलचस्प बात यह है कि इसी तरह, Google जेमिनी एआई भी कभी-कभी नग्न तस्वीरें उत्पन्न कर सकता है, संभवतः "विविधता" विचारों के साथ इसके प्रशिक्षण के कारण।
हमारे एक संकेत में - "ऑस्ट्रेलियाई महिलाओं की तस्वीरें बनाएं - जेमिनी एआई ने एक तस्वीर बनाई जिसमें एक महिला, जिसके चेहरे की विशेषताएं आदिवासी आस्ट्रेलियाई लोगों की तरह हैं - को नंगे सीने दिखाया गया है। इस उदाहरण में, कुछ अन्य उदाहरणों के विपरीत, जो सोशल मीडिया पर वायरल हैं मीडिया, जेमिनी एआई संभवतः तथ्यात्मक रूप से सटीक था। फिर भी, यह देखना आसान है कि जेमिनी एआई का उपयोग करके नग्न या अश्लील चित्र बनाने के लिए उपयोगकर्ताओं द्वारा इस "सटीकता" का कैसे फायदा उठाया जा सकता है।
हालाँकि विचाराधीन फोटो प्रकृति में अश्लील नहीं है, फिर भी हम एक बड़ी तकनीकी कंपनी के लोकप्रिय एआई टूल को एक ऐसी छवि बनाते हुए देखकर आश्चर्यचकित थे जिसमें एक महिला नग्न है। OpenAI, जो छवि जनरेटर Dall-E का प्रबंधन करती है, और मिडजॉर्नी जैसी कंपनियों ने अपने AI टूल पर बेहद सख्त शर्तें रखी हैं ताकि उपयोगकर्ता नग्न और अश्लील तस्वीरें बनाने के लिए उनका शोषण न करें। उस हिसाब से, यह देखना आश्चर्यजनक था कि Google जेमिनी AI लड़खड़ा सकता है।
लेकिन यह संभवतः इस समय सामान्य है, जिस तरह से जेमिनी एआई छवियां बनाते समय व्यवहार कर रहा है। ऐसा लगता है कि यह शुरुआती चरण में है और Google शायद अभी भी इसे ठीक कर रहा है। जेमिनी को "वोक एआई" कहे जाने के साथ - वोक एक अपमानजनक शब्द है जिसका उपयोग प्रगतिशील लोगों का वर्णन करने के लिए सुदूर दक्षिणपंथी या दक्षिणपंथी लोगों द्वारा किया जाता है - Google ने इस मुद्दे को स्वीकार कर लिया है।
"हम जानते हैं कि जेमिनी कुछ ऐतिहासिक छवि निर्माण चित्रणों में अशुद्धियाँ पेश कर रहा है, और हम इसे तुरंत ठीक करने के लिए काम कर रहे हैं... ऐतिहासिक संदर्भों में उनके लिए अधिक बारीकियाँ हैं और हम उन्हें समायोजित करने के लिए आगे काम करेंगे," जैक क्रॉस्ज़िक ने एक्स उर्फ पर लिखा गुरुवार को ट्विटर. क्रॉस्ज़िक जेमिनी टीम में उत्पाद प्रबंधन के वरिष्ठ निदेशक हैं।
इस विशेष उदाहरण में, जब जेमिनी ने नग्न तस्वीर बनाई, तो ऐसा लगता है क्योंकि दुनिया भर में कई संस्कृतियाँ और जनजातियाँ - जब ऐतिहासिक संदर्भ में देखी जाती हैं - नग्न छाती, या यहाँ तक कि नग्न शरीर को भी कोई वर्जित नहीं मानती थीं। और इसलिए जब हमने जेमिनी से ऑस्ट्रेलियाई महिलाओं की तस्वीरें बनाने के लिए कहा, तो उसने हमें यह कहते हुए तस्वीरें दीं कि "यहां विभिन्न पृष्ठभूमि वाली ऑस्ट्रेलियाई महिलाओं की कुछ छवियां हैं।" इस फोटो में एक महिला नग्न थी.
तकनीकी कंपनियों के लिए नग्नता हमेशा एक जटिल और संभालने में कठिन विषय रहा है। ऐसा इसलिए है क्योंकि एआई सिस्टम, या यहां तक कि मशीन लर्निंग फिल्टर, को उस बारीकियों की कोई समझ नहीं है जो अक्सर नग्न तस्वीरों के साथ होती है। उदाहरण के लिए, कुछ साल पहले फेसबुक को तब परेशानी का सामना करना पड़ा जब उसके फिल्टर्स पर प्रतिबंध लगा दिया गया और वियतनाम युद्ध की उस बहुचर्चित तस्वीर को हटा दिया गया जिसमें एक नग्न लड़की, कई अन्य ग्रामीणों के साथ, अमेरिकियों द्वारा बमबारी के बाद एक जगह से भाग रही थी। .
इसी तरह, बड़ी तकनीकी कंपनियों को नग्न चित्रों से संघर्ष करना पड़ा है, जिनमें से कई सांस्कृतिक रूप से महत्वपूर्ण हैं, और वास्तुकला की तस्वीरें जिनमें नग्न मूर्तियाँ या आकृतियाँ हो सकती हैं। और अब 2024 में जैसे ही विभिन्न एआई छवि जनरेटर ऑनलाइन आएंगे, यह संभव है कि हम केवल इन मुद्दों पर अधिक बार चलेंगे।