टोकियो – Faculty AI एक परामर्शदाता कम्पनी हो जसले आर्टिफिसियल इन्टेलिजियन्समा महत्वपूर्ण अनुभव राख्दछ । उसले नागरिक र सैन्य प्रयोगको लागि आर्टिफिसियल इन्टेजियन्स प्रविधिहको विकास गर्दै आएको छ।
Faculty ले UK सरकारसँग AI सुरक्षा, राष्ट्रिय स्वास्थ्य सेवा र शिक्षा क्षेत्रमा सहकार्यका लागि परिचित छ र अहिले सैन्य ड्रोनहरूमा AI को उपयोगका बारेमा अन्वेषण गर्दैछ। कम्पनीले UK को AI सुरक्षा संस्थान (AISI) को लागि AI मोडेलहरूको परीक्षणमा भाग लिएको छ, जुन AI सुरक्षा सम्बन्धी प्रभावहरूको अध्ययन गर्न स्थापित गरिएको थियो।
Faculty ले गैर-घातक क्षेत्रमा AI सँग विस्तारपूर्वक काम काम गरे पनि, सैन्य क्षेत्रकाे प्रयोगमा यसको कामले चिन्ता उत्पन्न गरेको छ । विशेष गरी हतियारमा स्वचालित प्रणालीहरूको संभावनासँग, जसमा ड्रोनहरू पनि समावेश छन् । यद्यपि Faculty ले यसका AI कार्यहरूले घातक ड्रोनहरूलाई समेट्ने नसमेट्ने कुरा सार्वजनिक गरेको छैन । यसले सरकारलाई AI सुरक्षा सम्बन्धि सुकझाव दिने र रक्षा कम्पनीहरूसँग काम गर्ने दाेहाेराे भूमिकाको आलोचना भाेगिरहेकाेछ।
कम्पनीले सार्वजनिक र निजी क्षेत्र दुबैमा बढ्दो प्रभावको कारण केही विवाद उत्पन्न गरेको छ। केहि विशेषज्ञहरू जसमा ग्रिन पार्टीका सदस्यहरू पनि समावेश छन् । Faculty काे सरकारसँग व्यापक सम्झौता र यसको निजी क्षेत्रसँगको AI को सहकार्य (जस्तै Open AI र रक्षा कम्पनीहरूसँगको साझेदारी) का कारण संभावित चासोहरूको बारेमा चिन्ता व्यक्त गर्दैछन् । Faculty को AI सुरक्षा कार्य महत्त्वपूर्ण मानिन्छ, तर आलोचकहरूले यसको व्यापक पोर्टफोलियोले दिएको सल्लाहमा पक्षपाती हुने जोखिम उत्पन्न गर्न सक्छ भन्ने तर्क गरेका छन्।
यी चिन्ताहरूको बाबजुद Faculty ले आफ्ना कामहरू कडा नैतिक नीतिहरूद्वारा मार्गनिर्देशित गरिएको दाबी गरेको छ र यो विश्वास जनाएको छ कि यसको मुख्य लक्ष्य AI लाई सुरक्षित र जिम्मेवारीपूर्वक प्रयोग गर्नु हो, विशेष गरी रक्षा क्षेत्रको प्रयोगहरूमा । जसरी AI विकास भइरहेका छन् विशेषज्ञहरूले स्वचालित हतियार प्रणालीहरूको विकासमा मानव निगरानीको आवश्यकता बारेको छलफलको महत्त्व बढ्दो देखिरहेका छन् । ऐजेन्सीको सहयोगमा ***