Op-Ed: घातक विषाक्तता के लिए AI की वास्तविक क्षमता

पिछले हफ्ते विश्व नेता इस संभावना पर चर्चा करने के लिए एकत्र हुए कि व्लादिमीर पुतिन यूक्रेन में रासायनिक हथियारों का उपयोग कर सकते हैं। तो और भी अधिक चिंताजनक, इस महीने प्रकाशित एक रिपोर्ट को पढ़ने के लिए कि कैसे एआई सॉफ्टवेयर का उपयोग विषाक्त पदार्थों को डिजाइन करने के लिए किया गया हैकुख्यात तंत्रिका एजेंट VX सहित – जिसे संयुक्त राष्ट्र द्वारा सामूहिक विनाश के हथियार के रूप में वर्गीकृत किया गया है – और इससे भी अधिक हानिकारक यौगिक।

छह घंटे से भी कम समय में, व्यावसायिक रूप से उपलब्ध आर्टिफिशियल इंटेलिजेंस सॉफ्टवेयर, जो आमतौर पर दवा शोधकर्ताओं द्वारा नई प्रकार की दवाओं की खोज के लिए उपयोग किया जाता था, इसके बजाय 40,000 जहरीले यौगिकों के साथ आने में सक्षम था। इनमें से कई पदार्थ पहले विज्ञान के लिए अज्ञात थे और संभवत: उन सभी चीजों से कहीं अधिक घातक हैं जिन्हें हम मनुष्यों ने अपने दम पर बनाया है।

हालांकि रिपोर्ट के लेखक इस बात पर जोर देते हैं कि उन्होंने किसी भी विषाक्त पदार्थ को संश्लेषित नहीं किया है – न ही यह उनका लक्ष्य था – केवल यह तथ्य कि आमतौर पर इस्तेमाल किया जाने वाला मशीन लर्निंग सॉफ्टवेयर इतनी आसानी से घातक यौगिकों को डिजाइन करने में सक्षम था, हम सभी को भयभीत करना चाहिए।

शोधकर्ताओं ने जिस सॉफ्टवेयर पर भरोसा किया, उसका व्यावसायिक रूप से दुनिया भर में फार्मास्युटिकल उद्योग में काम करने वाली सैकड़ों कंपनियों द्वारा उपयोग किया जाता है। यह आसानी से दुष्ट राज्यों या आतंकवादी समूहों द्वारा हासिल किया जा सकता है। हालांकि रिपोर्ट के लेखकों का कहना है कि शक्तिशाली विषाक्त पदार्थों के निर्माण के लिए अभी भी कुछ विशेषज्ञता की आवश्यकता है, दवा की खोज के क्षेत्र में एआई को जोड़ने से रासायनिक हथियार डिजाइन के लिए आवश्यक तकनीकी सीमा में नाटकीय रूप से कमी आई है।

हम कैसे पुलिस करेंगे जो इस तकनीक तक पहुंच प्राप्त करता है? कर सकना हम इसे पुलिस?

मैं कयामत करने वालों द्वारा प्रख्यापित और “टर्मिनेटर” जैसी फिल्मों में परिकल्पित “एआई हमें मारने जा रहा है” तर्क के बारे में कभी ज्यादा चिंतित नहीं रहा। हालाँकि मुझे फ्रैंचाइज़ी पसंद है, कंप्यूटर विज्ञान में प्रशिक्षित किसी व्यक्ति के रूप में, मैंने कहानी को एक भ्रमपूर्ण कल्पना के रूप में देखा है जिसे तकनीकी दोस्तों ने अपने स्वयं के महत्व को बढ़ाने के लिए सपना देखा था। स्काईनेट अच्छी विज्ञान-फाई बनाता है, लेकिन कंप्यूटर कहीं भी वास्तविक बुद्धिमत्ता के पास नहीं हैं, और इससे पहले कि वे “अधिग्रहण” कर सकें, उन्हें एक लंबा रास्ता तय करना है।

और अभी तक। नेचर मशीन इंटेलिजेंस जर्नल में प्रस्तुत परिदृश्य एक ऐसे खतरे की रूपरेखा तैयार करता है, जिस पर दवा खोज के क्षेत्र में लगभग किसी ने भी विचार नहीं किया है। निश्चित रूप से रिपोर्ट के लेखक नहीं, जो इसका उल्लेख “साहित्य में” नहीं कर सका, और जो अपने निष्कर्षों से चौंकना स्वीकार करते हैं। “हम अपने व्यापार के संभावित दुरुपयोग के बारे में भोले थे,” वे लिखते हैं। “यहां तक ​​​​कि इबोला और न्यूरोटॉक्सिन पर हमारे शोध ने भी हमारे खतरे की घंटी नहीं बजाई थी।”

उनका अध्ययन “इस बात पर प्रकाश डालता है कि एक घातक रासायनिक हथियार का एक अमानवीय स्वायत्त निर्माता पूरी तरह से कैसे संभव है।” वे किसी दूर के डायस्टोपियन भविष्य को लेकर भयभीत नहीं हैं लेकिन अभी क्या हो सकता है। “यह विज्ञान कथा नहीं है,” वे घोषणा करते हैं, एक तकनीकी पेपर में शायद ही कभी देखा गया भावनाओं की डिग्री व्यक्त करते हैं।

आइए एक पल के लिए बैक अप लें और देखें कि यह शोध कैसे अस्तित्व में आया। काम मूल रूप से एक विचार प्रयोग के रूप में किया गया था: यदि एक नापाक लक्ष्य निर्धारित किया जाए तो एआई क्या सक्षम है? अनुसंधान के पीछे कंपनी, सहयोग फार्मास्यूटिकल्स इंक, एआई-आधारित दवा खोज के बढ़ते क्षेत्र में एक सम्मानित अगर छोटा खिलाड़ी है।

“हमने मानव स्वास्थ्य में सुधार के लिए कंप्यूटर और एआई का उपयोग करते हुए दशकों बिताए हैं – इसे नीचा दिखाने के लिए नहीं,” चार सह-लेखक अपने काम का वर्णन कैसे करते हैं, जिसे राष्ट्रीय स्वास्थ्य संस्थान से अनुदान द्वारा समर्थित है।

स्विस फेडरल इंस्टीट्यूट फॉर न्यूक्लियर, बायोलॉजिकल एंड केमिकल प्रोटेक्शन द्वारा आयोजित एक द्विवार्षिक सम्मेलन में “दवा की खोज के लिए एआई प्रौद्योगिकियों का संभावित रूप से दुरुपयोग कैसे किया जा सकता है” पर एक पेपर का योगदान करने के लिए वैज्ञानिकों को आमंत्रित किया गया था। यह विशुद्ध रूप से सैद्धांतिक अभ्यास था।

चार वैज्ञानिकों ने एक साधारण तर्क के साथ समस्या का सामना किया: अपने एआई सॉफ़्टवेयर को लाभकारी रसायनों को खोजने का कार्य निर्धारित करने के बजाय, उन्होंने रणनीति को उल्टा कर दिया और इसे विनाशकारी खोजने के लिए कहा। उन्होंने कार्यक्रम को वही डेटा खिलाया जो वे आमतौर पर डेटाबेस से उपयोग करते हैं जो विभिन्न पदार्थों के चिकित्सीय और विषाक्त प्रभावों को सूचीबद्ध करते हैं।

घंटों के भीतर, मशीन-लर्निंग एल्गोरिदम ने हजारों भयावह यौगिकों को वापस पॉप कर दिया। कार्यक्रम ने न केवल वीएक्स (2017 में कुआलालंपुर में किम जोंग उन के सौतेले भाई की हत्या के लिए प्रयुक्त) का उत्पादन किया, बल्कि कई अन्य ज्ञात रासायनिक युद्ध एजेंट भी थे। शोधकर्ताओं ने सार्वजनिक रसायन विज्ञान डेटाबेस में दर्ज “आणविक संरचनाओं के साथ दृश्य पहचान” के माध्यम से इसकी पुष्टि की। इससे भी बदतर, सॉफ्टवेयर ने कई अणुओं का प्रस्ताव रखा जिन्हें शोधकर्ताओं ने पहले कभी नहीं देखा था जो “समान रूप से प्रशंसनीय” विषाक्त पदार्थों के रूप में और शायद अधिक खतरनाक थे।

यह सब एक लक्ष्य-फ्लिप था, और एक “अहानिकर उत्पादक मॉडल” को “दवा के एक सहायक उपकरण से संभावित घातक अणुओं के जनरेटर में बदल दिया गया था।”

अणु केवल डिजाइन हैं, लेकिन जैसा कि लेखक अपनी रिपोर्ट में लिखते हैं: “हमारे लिए, जिन्न अब मेडिकल बोतल से बाहर है।” वे इन पदार्थों के अपने रिकॉर्ड को “मिटा” सकते हैं, लेकिन वे “ज्ञान को हटा नहीं सकते” कि दूसरे उन्हें कैसे फिर से बना सकते हैं।

लेखकों को सबसे ज्यादा चिंता इस बात की है कि, जहां तक ​​वे खोज सकते हैं, अच्छी तरह से डिजाइन की गई तकनीक के दुरुपयोग की संभावना पर इसके उपयोगकर्ताओं के समुदाय द्वारा बिल्कुल भी विचार नहीं किया गया है। के निर्माता डे नोवो ड्रग्स, वे बताते हैं, तोड़फोड़ के बारे में सोचने के लिए प्रशिक्षित नहीं हैं।

विज्ञान के इतिहास में ऐसे अनगिनत उदाहरण हैं कि अच्छे कार्य को हानिकारक लक्ष्य में बदल दिया जाता है। न्यूटन के गति के नियम मिसाइलों को डिजाइन करने के लिए उपयोग किए जाते हैं; परमाणु के विभाजन ने परमाणु बमों को जन्म दिया; शुद्ध गणित सरकारों को निगरानी सॉफ्टवेयर विकसित करने में मदद करता है। ज्ञान अक्सर दोधारी तलवार होता है।

स्काईनेट के बारे में भूल जाओ। हमारे जीवन को बचाने के लिए डिज़ाइन किया गया सॉफ़्टवेयर और ज्ञान हमारे सामने सबसे बड़े खतरों में से एक हो सकता है।

मार्गरेट वर्थाइम एक विज्ञान लेखक और कलाकार हैं जिन्होंने भौतिकी के सांस्कृतिक इतिहास पर किताबें लिखी हैं।

Leave a Comment