ওপেন এ আই-এর ঘোষণা: চ্যাটজিপিটির নতুন রূপ
২৯ অক্টোবর থেকে জনপ্রিয় এআই চ্যাটবট চ্যাটজিপিটি (ChatGPT) আর চিকিৎসা, আইন বা আর্থিক বিষয়ে নির্দিষ্ট মতামত দেবে না – এমনটাই জানিয়েছে ওপেন এ আই (OpenAI)।
সংস্থার দাবি, এখন থেকে চ্যাটজিপিটি শুধুমাত্র শিক্ষামূলক তথ্য, সাধারণ ব্যাখ্যা এবং নীতি সম্পর্কিত দিক নির্দেশনা দেবে।
অর্থাৎ, যদি কেউ কোনও রোগের চিকিৎসা জানতে চান, বা কোনও মামলা সম্পর্কিত খসড়া তৈরি করতে বলেন, বা আর্থিক বিশ্লেষণ জানতে চান -চ্যাটজিপিটি এখন আর সেসব বিষয়ে সরাসরি পরামর্শ দেবে না।
ওপেন এ আই স্পষ্ট জানিয়েছে, চ্যাটজিপিটি কোনও ডাক্তার, আইনজীবী বা ফাইন্যান্সিয়াল অ্যাডভাইজার নয়। এটি একটি শিক্ষণমূলক টুল -যার উদ্দেশ্য কেবল তথ্য তুলে ধরা, সিদ্ধান্ত নেওয়া নয়।
কেন এই পরিবর্তন? ভুল তথ্যেই বিপদে পড়েছে মানুষ
এই সিদ্ধান্তের পেছনে কারণ একটাই – ভুল তথ্য ও তার বিপজ্জনক ফলাফল।
আগস্ট মাসে ঘটে যাওয়া এক ঘটনা গোটা এআই জগৎকে নাড়া দেয়।
একজন ৬০ বছর বয়সী ব্যক্তি চ্যাটজিপিটির (ChatGPT) থেকে পরামর্শ নিয়ে নিজের খাদ্যতালিকায় বড় পরিবর্তন আনেন। তিনি সাধারণ টেবিল লবণের বদলে ব্যবহার শুরু করেন সোডিয়াম ব্রোমাইড, যা শরীরের জন্য মারাত্মক ক্ষতিকর।
ফলাফল – তিন সপ্তাহের মধ্যে সেই ব্যক্তি গুরুতর অসুস্থ হয়ে হাসপাতালে ভর্তি হন।
Annals of Internal Medicine জার্নালে প্রকাশিত রিপোর্টে জানানো হয়েছে, ওই ব্যক্তির কোনও বড় রোগের ইতিহাস ছিল না। শুধু চ্যাটজিপিটির ভুল পরামর্শেই এমন পরিস্থিতি তৈরি হয়।
এই ঘটনার পর ওপেন এ আই বুঝতে পারে, সঠিক চিকিৎসা বা পেশাগত জ্ঞান ছাড়া কোনও এআই পরামর্শ বিপদ ডেকে আনতে পারে।
আয়ারল্যান্ডের ঘটনায় আরও বাড়ল বিতর্ক
সেপ্টেম্বর মাসে আয়ারল্যান্ডের কাউন্টি কেরির কিলার্নি এলাকায় ঘটে আরেকটি ঘটনা।
৩৭ বছর বয়সী ওয়ারেন টিয়ার্নি নামের এক ব্যক্তি গিলতে অসুবিধা অনুভব করেন। তিনি চিকিৎসকের কাছে না গিয়ে চ্যাটজিপিটির সাহায্য চান।
চ্যাটজিপিটি তাঁকে জানায় যে ক্যান্সারের সম্ভাবনা অত্যন্ত কম।
কিন্তু এই “বিশেষজ্ঞসুলভ” উত্তরেই তিনি চিকিৎসা নিতে দেরি করেন। পরে হাসপাতালে পরীক্ষা করে জানা যায় তাঁর খাদ্যনালীতে স্টেজ ফোর অ্যাডিনোকারসিনোমা, অর্থাৎ শেষ পর্যায়ের ক্যান্সার।
এই ঘটনাই প্রমাণ করে, চ্যাটজিপিটি (ChatGPT) যতই উন্নত হোক, এটি কোনও চিকিৎসক নয়। ভুল বিশ্লেষণে একজন মানুষ প্রাণ হারাতে পারেন।
ওপেন এ আই(OpenAi) -এর বক্তব্য: “এখন চ্যাটজিপিটি শুধু ব্যাখ্যা দেবে”
সংস্থাটি জানিয়েছে, এখন থেকে চ্যাটজিপিটি নীতি, সাধারণ প্রক্রিয়া এবং শিক্ষামূলক ব্যাখ্যা দেবে মাত্র।
অর্থাৎ, যদি কেউ জানতে চান কীভাবে একটি কোর্ট কেসের প্রক্রিয়া চলে?
সেটির ধাপ ব্যাখ্যা করা হবে। কিন্তু “আমার মামলার খসড়া তৈরি করে দিন এমন অনুরোধ আর মেনে নেওয়া হবে না।
একইভাবে, যদি কেউ জানতে চান ডায়াবেটিস রোগীদের জন্য সাধারণ ডায়েট কেমন হওয়া উচিত? চ্যাটজিপিটি শুধুমাত্র সাধারণ তথ্য দেবে, ব্যক্তিগত পরামর্শ নয়।
ব্যবহারকারীদের জন্য কী বার্তা দিল ওপেন এ আই
ওপেন এ আই-এর বার্তা পরিষ্কার
“যদি চিকিৎসা, আইনি বা আর্থিক পরামর্শ প্রয়োজন হয়, তাহলে পেশাদার বিশেষজ্ঞের সঙ্গে যোগাযোগ করুন।”
চ্যাটজিপিটি এখন এমন এক ভার্সনে রূপান্তরিত হয়েছে যা মানবিক ভুল এড়াতে এবং শিক্ষামূলক উদ্দেশ্যে নিরাপদ তথ্য দিতে তৈরি।
ব্যবহারকারীদের প্রতিক্রিয়া
চ্যাটজিপিটির এই নতুন নিয়মে মিশ্র প্রতিক্রিয়া দেখা গেছে।
অনেকে বলছেন, এতে এআই ব্যবহারের নিরাপত্তা বাড়বে। আবার অনেকে মনে করছেন, এতে ব্যবহারকারীদের সুবিধা কমে যাবে।
তবে বাস্তবিক অর্থে, এটি এক প্রয়োজনীয় পদক্ষেপ কারণ স্বাস্থ্য, আইন বা অর্থনৈতিক সিদ্ধান্তে ভুল তথ্যের ঝুঁকি অনেক বেশি।
সিদ্ধান্ত
এআই প্রযুক্তি যতই উন্নত হোক না কেন, মানুষের জায়গা এখনো অপরিবর্তনীয়।
চ্যাটজিপিটি (ChatGPT) তথ্য দিতে পারে, ব্যাখ্যা করতে পারে কিন্তু পরামর্শ দিতে পারে না।
তাই ভবিষ্যতে আপনি যদি চিকিৎসা, মামলা বা অর্থ সংক্রান্ত কিছু জানতে চান, মনে রাখবেন —
চ্যাটজিপিটি এখন শুধুই শিক্ষার সহচর, সিদ্ধান্তের নয়।










