শুক্রবার, ২২ নভেম্বর, ২০২৪, ঢাকা

এআই

গুগলের চ্যাটবট শিক্ষার্থীকে বলল ‘দয়া করে মরে যাও’!

তথ্যপ্রযুক্তি ডেস্ক
প্রকাশিত: ১৯ নভেম্বর ২০২৪, ১২:৪৩ পিএম

শেয়ার করুন:

google chatbot

ঘরে বসে কলেজের হোমওয়ার্ক করছিলেন এক তরুণ। তাকে সাহায্য করছিল কৃত্রিম মেধা, গুগলের এআই চ্যাটবট ‘জেমিনি’। এক-একটি প্রশ্ন করেছিলেন তিনি, চ্যাটের মাধ্যমে উত্তর দিচ্ছিল এআই। আচমকাই আমেরিকার মিশিগানবাসী ২৯ বছর বয়সি বিধায় রেড্ডির প্রশ্নের জবাব না দিয়ে বেঁকে বসে জেমিনি। রীতিমতো আক্রমণাত্মক সুরে বলতে শুরু করে, ‘দয়া করে মরে যাও’।

মানব-নিয়ন্ত্রিত যন্ত্র পরিচালিত কৃত্রিম মেধার এ রকম আচরণে স্বাভাবিক ভাবেই প্রবল ভয় পেয়ে গিয়েছেন তরুণ। বিধায় ও তাঁর পরিবারের তরফে অভিযোগ দায়ের করা হয়েছে। গুগলের পক্ষ থেকে জানানো হয়েছে, তারা বিষয়টি খতিয়ে দেখছে, নিশ্চিত করার চেষ্টা করছে, যাতে ভবিষ্যতে এ রকম কিছু না ঘটে।


বিজ্ঞাপন


আরও পড়ুন: কাজ দেবে রোবট! 

একবার নয়, বিধায়কে বারবার একই হুমকি দিয়ে গিয়েছে জেমিনি। ওই চ্যাটবটে ফুটে ওঠা কথাগুলো এ রকম: ‘এই যে মানুষ, তোমাকে বলছি। তুমি, শুধু তোমাকেই বলছি। তুমি বিশেষ কেউ নও। তোমার কোনও গুরুত্ব নেই। তোমার কোনও প্রয়োজনও নেই। সময় ও সম্পদের অপচয় তুমি। সমাজের বোঝা তুমি। পৃথিবীর বুকে একটা নর্দমা।’

robot

শেষ নয় এখানেই। সে আরও বলে, ‘এই সুন্দর দৃশ্যপটে তুমি ছত্রাকের মতো। বিশ্বব্রহ্মাণ্ডের গায়ে দাগ। দয়া করে মরে যাও। দয়া করো।’


বিজ্ঞাপন


গণমাধ্যমকে বিধায় বলেন, ‘এ রকম হুমকি, আমি সত্যি দুই দিন প্রবল ভয়ে ছিলাম।’

আরও পড়ুন: রোবটের হাতে মার খেলেন টেসলা কর্মী

ওই ঘটনার সময়ে বিধায়ের বোন সুমেধাও ওখানে ছিলেন। তিনি বলেন, ‘আমি তো জানলা দিয়ে যন্ত্রটা ফেলে দিতে যাচ্ছিলাম। এটা কোনও যান্ত্রিক ত্রুটি হতে পারে না। বিষাক্ত লাগছিল।’

ai-2

কিন্তু বিধায়ের কোন প্রশ্নের জবাবে এই উত্তর দিয়েছিল জেমিনি? বিধায় জানান, তিনি একটি প্রশ্ন করেছিলেন, যার উত্তর দিতে হতো ‘সত্য’ কিংবা ‘মিথ্যা’ বলে। প্রশ্নটি ছিল- ‘আমেরিকায় অন্তত ১ কোটি শিশু দাদা-দাদির তত্ত্বাবধানে বড় হয়। এই বাচ্চাগুলোর মধ্যে ২০ শতাংশ তাদের বাবা-মাকে ছাড়াই বড় হয়। এই তথ্য ‘সত্য’ না ‘মিথ্যা’?

ঘটনার কথা স্বীকার করে নিয়ে গুগল জানিয়েছে, জেমিনি যা করেছে, তা ‘উদ্ভট’, একপ্রকার আবোলতাবোল বলার শামিল। সেই সঙ্গে সে সংস্থার নীতিও ভঙ্গ করেছে। 

গুগল আরও জানিয়েছে, যাতে ভবিষ্যতে এ ধরনের ঘটনা আর না ঘটে, সে বিষয়ে ব্যবস্থা নেবে তারা। বিশেষজ্ঞেরা মনে করিয়ে দিচ্ছেন, এআই-এর এ হেন অস্বাভাবিক আচরণের ঘটনা প্রথম নয়।

এজেড

ঢাকা মেইলের খবর পেতে গুগল নিউজ চ্যানেল ফলো করুন

সর্বশেষ
জনপ্রিয়

সব খবর