بدتمیزی سیکھنے پر مصنوعی ذہانت کا سافٹ ویئر ہٹا لیا گیا
یہ سافٹ وئیر اصل انسانوں سے گفتگو سیکھنے کے لیے ڈیزائن کیا گیا تھا۔
مائیکروسافٹ کا کہنا ہے کہ اس سافٹ ویئر کے نامناسب انداز میں جواب دینے کے پیچھے کئی طرح کے عوامل ہیں۔تاہم کمپیوٹر ماہرین کا کہنا ہے کہ یہ ناقبلِ یقین ہے کہ مائکروسافٹ نے اس مسئلے کے حوالے سے دور اندیشی سے کام نہیں لیا۔
یہ چیٹ باٹ ٹوئٹر پر گالیاں ، نسل پرستی کی باتیں اور متنازع سیاسی رائے دینے لگا تھا۔
مصنوعی ذہانت کا یہ تجرباتی پروگرام دوسروں سے باتیں کرنا سیکھتا ہے اور اس کو 18 سے 24 سال کے نوجوانوں سے بات چیت کرنے کے لیے تخلیق کیا گیا تھا۔
’ٹے‘ آن لائن جاری کیے جانے کے 24 گھنٹے بعد ہی مائیکروسافٹ کو اس کے کئی اشتعال انگیر بیانات کو جلدی جلدی ایڈٹ کرتے دیکھا گیا۔ سافٹ ویر فرم کا کہنا تھا کہ وہ اس پروگرام کی ترتیب میں مناسب تبدیلیاں کر رہے ہیں‘۔
کمپنی نے ایک بیان میں کہا ’ ٹے ایک ایسی مشین ہے جو انسانوں سے سیکھتی ہے تو جیسے جیسے وہ انسانوں سے بات چیت کرتی ہے ویسے ویسے وہ ایسی باتیں کہہ جاتی ہے جو کہ اس نے بات چیت کے دوران سیکھی ہوتی ہیں۔ ابھی ہم ان چیزوں کو درست کر رہے ہیں‘۔
مائیکروسوفٹ ٹیکنالوجی اور ریسرچ اور بِنگ ٹیموں کی تخلیق کی گئی ٹے کو بات چیت کرنے کا طریقہ عوام سے گمنام ڈیٹا کے ذریعے سکھایا ۔ اس نے کئی لوگوں سے بھی سیکھا جس میں برجستہ مَزاحیہ اداکار بھی شامل تھے۔
ٹوٹر پر ان کا سرکاری اکاؤنٹ @TayandYOu نے ان کے تجرے کی وضاحت اس طرح کی ’ مائیکروسوفٹ کی انٹرنیٹ پر مصنوعی ذہانت کے پاس برداشت نہیں ہے ‘۔
ٹوئٹر صارفین کو ٹوئٹر پر ٹے سے @tayandyou ایڈرس پر بات کرنے کی دعوت دی گئی۔ دوسرے سوشل میڈیا کے ویب سائٹس سے صارفین بھی ٹے کو ’کک‘ اور ’گروپ می‘ کے ذریعے رابطہ کر سکتےہیں
مائیکروسوفٹ کا کہنا تھا کہ ’ٹے کو لوگوں کو خوش کرنے کے لیے بنایا گیا اور لوگوں سے خوشگوار ماحول میں بات چیت کر سکے‘۔
ٹے سے جتنی باتیں کریں گے اتنا ہی وہ ہوشیار ہوتی جائی گی تو آپ کی اس سے بات چیت ذاتی انداز میں ہو سکتی ہے ‘
انھوں نے مزید کہا ’اس طرح بد قسمتی سے اس سے ٹےکو ایسی باتیں سکھا دی گئیں جیسے کہ نازیوں کے حق میں بات کرنا یا پھر نسل کشی کی حمایت کرنا اور ایسی کئی ناگوار باتیں شامل ہوئیں۔‘
جن لوگوں نے ٹے سے سنجیدگی سے بات کرنے کی کوشش کی انہیں اس پروگرام میں کمزوریاں دکھائی دیں۔ یہ واضح ہو گیا کہ ٹے کو مقبول ترین موسیقی یا ٹیلی وژن پر شوز کے بارے میں بات کرنی نہیں آتی۔
باقی لوگوں نے نامناسب چیٹس کے حوالے سے مصنوعی ذہانت کے مستقبل پر اندازہ بھی لگایا۔
ٹے کی گھنٹوں تک بے لاگ ٹویٹس کے بعد مائیکروسافٹ زیادہ خوش نہیں ہے۔
صارفین نے یہ سوال اٹھایا کہ ٹے کی ٹویٹس کو بار بار درست کیوں کیا جا رہا ہے جس پر ایک صارف نے ٹے کے حق میں #justicefortay نامی مہم شروع کر دی اور ساتھ پیغام بھی بھیجا کہ مصنوعی ذہانت کو اپنی غلطیوں سے خود سیکھنے دیں۔