ओपनएआई का एआई-ट्रांसक्रिप्शन टूल, व्हिस्पर, अक्सर चिकित्सा सेटिंग्स में "हल्लूसिनेट" करता है, जिससे संभावित जोखिम होते हैं।

शोधकर्ताओं ने पाया है कि OpenAI का AI-संचालित ट्रांसक्रिप्शन टूल, व्हिस्पर, अक्सर गलत वाक्य उत्पन्न करके "भ्रम" करता है, जिससे स्वास्थ्य सेवा जैसे उच्च जोखिम वाले उद्योगों में चिंताएं बढ़ जाती हैं। संवेदनशील क्षेत्रों में इसके उपयोग के खिलाफ ओपनएआई की चेतावनी के बावजूद, कई चिकित्सा सुविधाओं ने इसे रोगी परामर्शों को ट्रांसक्रिप्ट करने के लिए अपनाया है। विशेषज्ञ इन मुद्दों को संबोधित करने के लिए संघीय नियमों का आह्वान कर रहे हैं, जबकि ओपनएआई समस्या को स्वीकार करता है और सुधारों पर काम कर रहा है।

5 महीने पहले
130 लेख

आगे पढ़ें