ताज़ा और वास्तविक सामग्री के साथ स्वाभाविक रूप से भाषाएँ सीखें!

लोकप्रिय विषय
क्षेत्र के अनुसार खोजें
गूगल ने बाफ्टा पर एक नस्लीय अपशब्द का उपयोग करते हुए ए. आई. द्वारा उत्पन्न समाचार चेतावनी के लिए माफी मांगी, इसे एक प्रणाली दोष कहा।
बाफ्टा के बारे में एक स्वचालित समाचार चेतावनी में गलती से एक नस्लीय अपशब्द शामिल किए जाने के बाद गूगल ने माफी जारी की, जिसमें कहा गया कि यह इसकी एआई प्रणाली के कारण हुई एक "गहरा खेद" त्रुटि थी।
गूगल न्यूज द्वारा उत्पन्न चेतावनी ने कवरेज के सारांश में आपत्तिजनक शब्द का इस्तेमाल किया, जिससे प्रतिक्रिया हुई।
कंपनी ने पुष्टि की कि यह घटना उसके ए. आई. सामग्री प्रसंस्करण में एक दोष के कारण हुई है और तब से इस समस्या को ठीक करने के लिए कदम उठाए हैं।
गूगल ने भविष्य में ऐसी त्रुटियों को रोकने के लिए अपनी प्रतिबद्धता पर जोर दिया।
32 लेख
Google apologized for AI-generated news alert using a racial slur at the BAFTAs, calling it a system flaw.