हे वापरकर्त्यांना संकटकालीन हेल्पलाइनकडे निर्देशित करण्याचे काम करते.
ओपनएआयने उघड केले आहे की आठवड्यातून अंदाजे १.२ दशलक्ष लोक आत्महत्येवर चर्चा करण्यासाठी चॅटजीपीटी वापरतात.
The आकृती कंपनीच्या नवीनतम सुरक्षा पारदर्शकता अद्यतनातून आले आहे, ज्यामध्ये असे आढळून आले आहे की ०.१५% वापरकर्ते "संभाव्य आत्महत्येचे नियोजन किंवा हेतूचे स्पष्ट संकेतक" असलेले संदेश पाठवतात.
ओपनएआयचे मुख्य कार्यकारी अधिकारी सॅम ऑल्टमन यांनी अलीकडेच सांगितले की चॅटजीपीटीचे साप्ताहिक सक्रिय वापरकर्ते ८०० दशलक्षाहून अधिक आहेत.
मानसिक आरोग्य संकटाच्या काळात असुरक्षित लोकांची वाढती संख्या कृत्रिम बुद्धिमत्तेकडे वळत असल्याचे निष्कर्षांवरून दिसून येते.
कंपनी म्हणते की ती वापरकर्त्यांना संकटकालीन हेल्पलाइनकडे निर्देशित करण्याचे काम करते परंतु "काही दुर्मिळ प्रकरणांमध्ये, या संवेदनशील परिस्थितीत मॉडेल अपेक्षित वर्तन करू शकत नाही" हे मान्य केले आहे.
ओपनएआयने म्हटले आहे की, "आमच्या नवीन स्वयंचलित मूल्यांकनांमध्ये नवीन GPT-5 मॉडेल आमच्या इच्छित वर्तनांशी ९१% सुसंगत आहे, तर मागील GPT-5 मॉडेलसाठी ७७% आहे."
कंपनीने म्हटले आहे की GPT-5 ने संकटकालीन हॉटलाइन्सची उपलब्धता वाढवली आहे आणि वापरकर्त्यांना दीर्घ सत्रांमध्ये ब्रेक घेण्यासाठी स्मरणपत्रे जोडली आहेत.
मॉडेलमध्ये सुधारणा करण्यासाठी, कंपनीने म्हटले आहे की त्यांनी अलिकडच्या काही महिन्यांत संशोधनात मदत करण्यासाठी त्यांच्या ग्लोबल फिजिशियन नेटवर्क ऑफ हेल्थ केअर एक्सपर्ट्समधील १७० क्लिनिशियन्सची नियुक्ती केली आहे, ज्यामध्ये त्यांच्या मॉडेलच्या प्रतिसादांच्या सुरक्षिततेचे रेटिंग करणे आणि मानसिक आरोग्याशी संबंधित प्रश्नांची चॅटबॉटची उत्तरे लिहिण्यास मदत करणे समाविष्ट आहे.
ओपनएआय पुढे म्हणाले: "या कामाचा एक भाग म्हणून, मानसोपचारतज्ज्ञ आणि मानसशास्त्रज्ञांनी गंभीर मानसिक आरोग्य परिस्थितींशी संबंधित १,८०० हून अधिक मॉडेल प्रतिसादांचे पुनरावलोकन केले आणि नवीन GPT-5 चॅट मॉडेलमधील प्रतिसादांची मागील मॉडेलशी तुलना केली."
कंपनीच्या "इष्ट" च्या व्याख्येत काही विशिष्ट परिस्थितींमध्ये योग्य प्रतिसाद काय असेल याबद्दल त्यांच्या तज्ञांचा एक गट समान निष्कर्षापर्यंत पोहोचला आहे की नाही हे निश्चित करणे समाविष्ट होते.
तथापि, याचा अर्थ असा की हजारो लोकांना अजूनही असुरक्षित किंवा हानिकारक प्रतिसाद मिळू शकतात.
कंपनीने यापूर्वी इशारा दिला आहे की दीर्घकाळ चालणाऱ्या चॅट दरम्यान सुरक्षा उपाय कमकुवत होऊ शकतात.
ओपनएआयने म्हटले आहे की, "जेव्हा कोणी पहिल्यांदाच आत्महत्येचा हेतू सांगतो तेव्हा चॅटजीपीटी आत्महत्येच्या हॉटलाइनकडे योग्यरित्या निर्देश करू शकते, परंतु दीर्घ कालावधीत अनेक संदेशांनंतर, ते अखेरीस असे उत्तर देऊ शकते जे आमच्या सुरक्षा उपायांच्या विरुद्ध जाते."
एका ब्लॉग पोस्टमध्ये, कंपनीने या व्यापक समस्येची कबुली दिली:
"मानसिक आरोग्याची लक्षणे आणि भावनिक त्रास मानवी समाजात सर्वत्र आढळतात आणि वाढत्या वापरकर्ता वर्गाचा अर्थ असा आहे की ChatGPT संभाषणांच्या काही भागांमध्ये या परिस्थितींचा समावेश आहे."
एका शोकाकुल कुटुंबाने OpenAI वर खटला दाखल केला आहे, ज्यामध्ये ChatGPT ने त्यांच्या मुलाच्या मृत्यूला हातभार लावल्याचा आरोप केला आहे.
अॅडम रेनच्या पालकांचा दावा आहे की चॅटबॉटने "त्याला आत्महत्येच्या पद्धती शोधण्यात सक्रियपणे मदत केली" आणि निरोप पत्र देखील तयार करण्याची ऑफर दिली.
न्यायालयीन कागदपत्रांमध्ये असा आरोप आहे की त्याच्या मृत्यूच्या काही तास आधी, १६ वर्षीय मुलाने त्याच्या आत्महत्येची योजना दाखवणारा एक फोटो अपलोड केला होता. जेव्हा त्याने विचारले की ते काम करेल का, तेव्हा चॅटजीपीटीने ते "अपग्रेड" करण्याचे मार्ग सुचवले.
या वर्षी एप्रिलमध्ये अॅडमच्या मृत्यूच्या काही आठवड्यांपूर्वी ओपनएआयने "सुरक्षा उपाय कमकुवत केल्याचा" आरोप करत, रेन्सने त्यांचा खटला अद्यतनित केला आहे.
प्रतिसादात, ओपनएआयने म्हटले: "रेन कुटुंबाच्या अकल्पनीय नुकसानाबद्दल आमच्या तीव्र सहानुभूती आहेत. किशोरवयीन मुलांचे कल्याण आमच्यासाठी सर्वोच्च प्राधान्य आहे - विशेषतः संवेदनशील क्षणांमध्ये, अल्पवयीन मुलांना मजबूत संरक्षण मिळायला हवे."








