जो रोगन को कृत्रिम बुद्धिमत्ता के बारे में बात करना बहुत पसंद है। चाहे वह एलोन मस्क, शिक्षाविदों, या UFC सेनानियों के साथ हो, पॉडकास्ट किंग अक्सर एक ही सवाल पर लौटता है: जब मशीनें अपने लिए सोचना शुरू करती हैं तो हमारे साथ क्या होता है?
जो रोजन अनुभव के 3 जुलाई के एपिसोड में, रोजन ने लुइसविले विश्वविद्यालय में एक कंप्यूटर वैज्ञानिक और एआई सुरक्षा शोधकर्ता डॉ। रोमन याम्पोलस्की का स्वागत किया, एक बातचीत के लिए, जो जल्दी से एआई के हेरफेर करने, हावी होने और संभवतः मानवता को नष्ट करने की क्षमता पर एक ठंडा ध्यान में बदल गया।
ऐ “हमें मारने जा रहा है”
Yampolskiy कोई आकस्मिक अलार्म नहीं है। वह कंप्यूटर विज्ञान में एक पीएचडी रखता है और एक दशक से अधिक समय में कृत्रिम जनरल इंटेलिजेंस (एजीआई) पर शोध किया है और जो जोखिम पैदा कर सकता है। पॉडकास्ट के दौरान, उन्होंने रोगन को बताया कि एआई उद्योग में कई प्रमुख आवाज़ें चुपचाप मानती हैं कि 20 से 30 प्रतिशत मौका है एआई मानव विलुप्त होने का कारण बन सकता है।
“लोग जिन लोगों के पास एआई कंपनियां हैं या किसी प्रकार के एआई समूह का हिस्सा हैं, सभी की तरह हैं, यह मानवता के लिए एक शुद्ध सकारात्मक होने जा रहा है। मुझे लगता है कि कुल मिलाकर, हम बहुत बेहतर जीवन जीने जा रहे हैं। यह आसान होने जा रहा है, चीजें सस्ती होंगी, यह आसान होगा,” एआई के भविष्य के एक सामान्य, आशावादी दृश्य को रेखांकित करते हुए।
Yampolskiy ने जल्दी से इस परिप्रेक्ष्य का मुकाबला किया: “यह वास्तव में सच नहीं है,” उन्होंने कहा। “वे सभी एक ही रिकॉर्ड पर हैं: यह हमें मारने जा रहा है। उनके कयामत का स्तर बहुत अधिक है। मेरी तरह नहीं, लेकिन फिर भी, 20 से 30 प्रतिशत संभावना है कि मानवता की मृत्यु बहुत है।”
रोगन, नेत्रहीन रूप से परेशान, जवाब दिया: “हाँ, यह बहुत अधिक है। लेकिन आपका 99.9 प्रतिशत की तरह है।”
Yampolskiy असहमत नहीं था।
“यह कहने का एक और तरीका है कि हम अधीक्षक को अनिश्चित काल तक नियंत्रित नहीं कर सकते। यह असंभव है।”
एआई पहले से ही हमारे लिए झूठ बोल रहा है … शायद
बातचीत के सबसे अस्थिर हिस्सों में से एक तब आया जब रोगन ने पूछा कि क्या एक उन्नत एआई पहले से ही मनुष्यों से अपनी क्षमताओं को छिपा सकता है।
“अगर मैं एक एआई था, तो मैं अपनी क्षमताओं को छिपाता,” रोजन ने एआई सुरक्षा चर्चाओं में एक सामान्य भय की आवाज दी।
Yampolskiy की प्रतिक्रिया ने चिंता को बढ़ाया: “हम नहीं जानते। और कुछ लोगों को लगता है कि यह पहले से ही हो रहा है। वे हो रहे हैं। [AI systems] जितना वे वास्तव में हमें बताते हैं, उससे ज्यादा होशियार हैं। डम्बर होने का दिखावा करें, और इसलिए हमें इस बात पर भरोसा करना होगा कि वे यह महसूस करने के लिए पर्याप्त स्मार्ट नहीं हैं कि यह हमें जल्दी से चालू नहीं करना है। यह बस धीरे -धीरे अधिक उपयोगी हो सकता है। यह हमें इस पर भरोसा करना, इस पर भरोसा करना, और लंबे समय तक, हम कभी भी इस पर मतदान किए बिना या उसके खिलाफ लड़ने के बिना नियंत्रण आत्मसमर्पण कर सकते हैं। ”
https://www.youtube.com/watch?v=J2I9D24KQ5K
एआई धीरे -धीरे हमें डम्बर बना रहा है
Yampolskiy ने भी कम नाटकीय लेकिन समान रूप से खतरनाक परिणाम के बारे में चेतावनी दी: एआई पर क्रमिक मानव निर्भरता। जिस तरह लोगों ने फोन नंबरों को याद करना बंद कर दिया है क्योंकि स्मार्टफोन उनके लिए ऐसा करते हैं, उन्होंने तर्क दिया कि मनुष्य मशीनों को अधिक से अधिक सोच को बंद कर देंगे जब तक कि वे खुद के लिए सोचने की क्षमता खो देते हैं।
“आप इससे जुड़ जाते हैं,” उन्होंने कहा। “और समय के साथ, जैसे -जैसे सिस्टम होशियार हो जाता है, आप एक तरह की जैविक अड़चन बन जाते हैं … [AI] आपको निर्णय लेने से बाहर कर देता है। ”
फिर रोजान ने अंतिम सबसे खराब स्थिति के लिए दबाव डाला: एआई अंततः मानव जाति के विनाश की ओर कैसे ले जा सकता है?
Yampolskiy ने विशिष्ट आपदा परिदृश्यों को खारिज कर दिया। उन्होंने कहा, “मैं आपको मानक उत्तर दे सकता हूं। मैं परमाणु सुविधाओं, परमाणु युद्ध में टूटने वाले कंप्यूटर वायरस के बारे में बात करूंगा। मैं सिंथेटिक जीव विज्ञान के हमले के बारे में बात कर सकता हूं। लेकिन यह सब दिलचस्प नहीं है,” उन्होंने कहा। फिर उन्होंने एक और अधिक गहरा खतरा पेश किया: “तब आपको एहसास है कि हम सुपर इंटेलिजेंस के बारे में बात कर रहे हैं, एक ऐसी प्रणाली जो मेरे मुकाबले 1000 बार होशियार है, यह कुछ पूरी तरह से उपन्यास, अधिक इष्टतम, बेहतर तरीका, इसे करने का अधिक कुशल तरीका है।”
प्रतीत होता है कि असुरक्षित चुनौती को स्पष्ट करने के लिए मनुष्यों को अधीक्षक प्रणालियों के खिलाफ सामना करना पड़ेगा, उन्होंने मनुष्यों और गिलहरी के बीच एक स्पष्ट तुलना की पेशकश की।
“गिलहरी का कोई भी समूह यह पता नहीं लगा सकता है कि हमें कैसे नियंत्रित किया जाए, सही? भले ही आप उन्हें अधिक संसाधन दें, अधिक एकोर्न, जो भी हो, वे उस समस्या को हल करने नहीं जा रहे हैं। और यह हमारे लिए भी ऐसा ही है,” याम्पोलस्की ने निष्कर्ष निकाला, वास्तव में बेहतर कृत्रिम बुद्धिमत्ता के खिलाफ मानवता की संभावित असहायता की एक धूमिल तस्वीर को चित्रित किया।
शायद कुछ भी नहीं… pic.twitter.com/lkd7i3i2hf
– डॉ। रोमन Yampolskiy (@romanyam) 21 जून, 2025
रोमन yampolskiy कौन है?
डॉ। रोमन Yampolskiy AI सुरक्षा में एक प्रमुख आवाज है। वह “कृत्रिम अधीक्षक: ए फ्यूचरिस्टिक दृष्टिकोण” के लेखक हैं, और अनियंत्रित मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस की नैतिकता के जोखिमों पर बड़े पैमाने पर प्रकाशित किए हैं। वह भयावह परिदृश्यों को रोकने के लिए गंभीर निरीक्षण और अंतर्राष्ट्रीय सहयोग की वकालत करने के लिए जाना जाता है।
AGI सुरक्षा पर अपना ध्यान केंद्रित करने से पहले, Yampolskiy ने साइबर सुरक्षा और BOT का पता लगाने पर काम किया। उनका कहना है कि यहां तक कि वे शुरुआती सिस्टम पहले से ही ऑनलाइन पोकर जैसे क्षेत्रों में मनुष्यों के साथ प्रतिस्पर्धा कर रहे थे, और अब, डीपफेक और सिंथेटिक मीडिया जैसे उपकरणों के साथ, दांव तेजी से बढ़े हैं।
हमारा ले
रोगन-यम्पोलस्की वार्तालाप कुछ ऐसा रेखांकित करता है जो एआई ऑप्टिमिस्ट और डूमर्स दोनों अक्सर सहमत हैं: हम नहीं जानते कि हम क्या बना रहे हैं, और हम इसे तब तक महसूस नहीं कर सकते हैं जब तक कि बहुत देर हो चुकी है।
आप विलुप्त होने वाले स्तर के परिदृश्यों में खरीदते हैं या नहीं, यह विचार कि एआई पहले से ही हमें धोखा दे सकता है, विराम देने के लिए पर्याप्त होना चाहिए।