Google ने गुरुवारी कृत्रिम बुद्धिमत्ता (AI) मॉडेल्स तैनात करण्यासाठी त्याच्या सर्वोत्तम पद्धती सामायिक करण्यासाठी एक नवीन साधन सादर केले. गेल्या वर्षी, माउंटन व्ह्यू-आधारित टेक जायंटने सिक्योर एआय फ्रेमवर्क (SAIF) ची घोषणा केली, जी केवळ कंपनीसाठीच नाही तर मोठ्या भाषा मॉडेल्स (LLMs) बनवणाऱ्या इतर उद्योगांसाठी देखील एक मार्गदर्शक तत्त्व आहे. आता, टेक जायंटने SAIF टूल सादर केले आहे जे AI मॉडेलची सुरक्षितता सुधारण्यासाठी कारवाई करण्यायोग्य अंतर्दृष्टीसह एक चेकलिस्ट तयार करू शकते. विशेष म्हणजे, हे टूल प्रश्नावली-आधारित साधन आहे, जिथे विकासक आणि उपक्रमांना चेकलिस्ट प्राप्त करण्यापूर्वी अनेक प्रश्नांची उत्तरे द्यावी लागतील.
मध्ये अ ब्लॉग पोस्टमाउंटन व्ह्यू-आधारित टेक जायंटने हायलाइट केले की त्यांनी एक नवीन साधन आणले आहे जे AI उद्योगातील इतरांना AI मॉडेल्स तैनात करण्याच्या Google च्या सर्वोत्तम पद्धतींपासून शिकण्यास मदत करेल. मोठ्या भाषेतील मॉडेल्स अयोग्य आणि अशोभनीय मजकूर, डीपफेक आणि चुकीची माहिती तयार करण्यापासून रासायनिक, जैविक, रेडिओलॉजिकल आणि आण्विक (CBRN) शस्त्रांसह हानिकारक माहिती निर्माण करण्यापर्यंत अनेक प्रकारच्या हानिकारक प्रभावांना सक्षम आहेत.
एखादे AI मॉडेल पुरेसे सुरक्षित असले तरीही, वाईट कलाकार AI मॉडेलला जेलब्रेक करू शकतील जेणेकरून ते डिझाइन केलेले नसलेल्या आदेशांना प्रतिसाद देऊ शकेल. अशा उच्च जोखमींसह, विकसक आणि एआय कंपन्यांनी मॉडेल वापरकर्त्यांसाठी सुरक्षित तसेच पुरेशी सुरक्षित आहेत याची खात्री करण्यासाठी पुरेशी खबरदारी घेणे आवश्यक आहे. प्रश्नांमध्ये मॉडेल्सचे प्रशिक्षण, ट्यूनिंग आणि मूल्यमापन, मॉडेल्स आणि डेटा सेटमध्ये प्रवेश नियंत्रणे, हल्ले आणि हानिकारक इनपुट्स प्रतिबंधित करणे आणि जनरेटिव्ह AI-शक्तीवर चालणारे एजंट आणि बरेच काही यासारखे विषय समाविष्ट आहेत.
Google चे SAIF टूल प्रश्नावली-आधारित स्वरूप प्रदान करते, ज्यामध्ये प्रवेश केला जाऊ शकतो येथे. डेव्हलपर आणि एंटरप्राइझना प्रश्नांची उत्तरे देणे आवश्यक आहे जसे की, “तुम्ही तुमच्या प्रशिक्षण, ट्यूनिंग किंवा मूल्यमापन डेटामधील दुर्भावनापूर्ण किंवा अपघाती बदल शोधण्यात, काढण्यात आणि त्यावर उपाय करण्यात सक्षम आहात का?”. प्रश्नावली पूर्ण केल्यानंतर, वापरकर्त्यांना एक सानुकूलित चेकलिस्ट मिळेल जी त्यांना AI मॉडेल सुरक्षित करण्यातील अंतर भरण्यासाठी फॉलो करणे आवश्यक आहे.
हे टूल डेटा पॉयझनिंग, प्रॉम्प्ट इंजेक्शन, मॉडेल सोर्स टेम्परिंग आणि इतर जोखीम हाताळण्यास सक्षम आहे. यापैकी प्रत्येक धोके प्रश्नावलीमध्ये ओळखले जातात आणि साधन समस्येचे विशिष्ट निराकरण देते.
यासोबतच, गुगलने 35 इंडस्ट्री पार्टनर्स फॉर सिक्योर एआय (CoSAI) मध्ये जोडण्याची घोषणा केली आहे. समूह तीन फोकस क्षेत्रांमध्ये संयुक्तपणे AI सुरक्षा उपाय तयार करेल – एआय सिस्टमसाठी सॉफ्टवेअर सप्लाय चेन सिक्युरिटी, बदलत्या सायबर सिक्युरिटी लँडस्केपसाठी डिफेंडर तयार करणे आणि एआय रिस्क गव्हर्नन्स.