মাধ্যম নিউজ ডেস্ক: সমাজ মাধ্যমজুড়ে চলছে ‘জিবলি’ ট্রেন্ড (Ghibli Trend)। আট থেকে আশি সকলেই কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে সহজেই জাপানি অ্যানিমেটর হায়াও মিয়াজাকির মস্তিষ্কপ্রসূত ‘জিবলি’ স্টুডিওর (Studio Ghibli) তৈরি অ্যানিমেশনের আদলে ছবি বানিয়ে ফেলছেন। যেকোনও ছবিকেই বদলে দিচ্ছে ওপেনএআই সংস্থার ‘চ্যাটজিপিটি’ বা মাস্কের এক্স প্ল্যাটফর্মের এআই ‘গ্রোক’-এর মতো কৃত্রিম বুদ্ধিমত্তা মাধ্যম। তবে বিশেষজ্ঞরা বলছেন এআই-জেনারেটেড স্টুডিও ‘জিবলি’ ছবি ব্যবহারকারীদের জন্য মোটেও নিরাপদ নয়। কারণ হিসেবে তাঁরা জানাচ্ছেন, এআই প্রশিক্ষণের জন্য এই ব্যক্তিগত ছবিগুলি ব্যবহার করা হতে পারে। এর ফলে আমাদের ব্যক্তিগত ও পরিবারের তথ্য সহজেই চলে যাচ্ছে এআই সংস্থাগুলির কাছে।
এআই গবেষক লুইজা জারোভস্কি কী বলছেন?
এনিয়ে সম্প্রতি সামনে এসেছে এআই গবেষক লুইজা জারোভস্কির পোস্ট। নিজের এক্স মাধ্যমে এই জানাচ্ছেন, ‘জিবলি’ (Studio Ghibli) ছবি তৈরি করতে গিয়ে নেটিজেনরা নিজেদের সাইবার নিরাপত্তাকে প্রশ্নের মুখে ফেলে দিয়েছেন। ওই গবেষক লিখছেন, ‘‘লক্ষ লক্ষ মানুষ শুধুমাত্র ট্রেন্ডে থাকার জন্য নিজেদের ব্যক্তিগত ছবি তুলে দিচ্ছেন ওপেন এআই বা অন্য কোনও কৃত্রিম বুদ্ধিমত্তা সংস্থার হাতে। এটাতে গ্রাহকরা আনন্দ পাচ্ছেন ঠিকই। কিন্তু ঘুরপথে লাভ হচ্ছে ওপেন এআই-এর মতো সংস্থাগুলিরও। বিনামূল্যেই তারা নিজেদের এআই-কে (Ghibli Trend) প্রশিক্ষণ দেওয়ার জন্য লক্ষ লক্ষ ভিন্ন মানুষের ছবি পেয়ে যাচ্ছে।’’
নেটমহলে তথ্যের নিরাপত্তাহীনতা ও ডিপফেকের মতোও ঘটনাও বৃদ্ধি পাবে
লুইজা জারোভস্কি তাঁর এক্স মাধ্যমের পোস্টে আরও দাবি করেছেন, ‘‘আমরা নিজেদের ব্যক্তিগত কিংবা পরিবারের সঙ্গে তোলা ছবি তাদের হাতে তুলে দিচ্ছি, শুধুমাত্র ট্রেন্ডে ভাসার জন্য। কিন্তু এর বদলে ওরা বিনামূল্যেই আমাদের জীবনের নানা তথ্যাদি সংগ্রহ করে আরও ক্ষমতাশালী হয়ে উঠছে। যা ওদের আগামী দিনে সুবিধা করে দিতে সক্ষম (Studio Ghibli)।’’ অনেক বিশেষজ্ঞ বলছেন, ‘‘সাধারণের ব্যক্তিগত ছবির অপব্যবহার হতে পারে। মানুষের সম্মতি ছাড়াই এআই সংস্থাগুলি এই সব ছবিকে তাদের এআই মডেল প্রশিক্ষণ তৈরির জন্য ব্যবহার করতে পারে। এমনকি, এই ধরনের ঘটনার ফলে নেটমহলে তথ্যের নিরাপত্তাহীনতা ও ডিপফেকের মতোও ঘটনাও বৃদ্ধি পায়।’’
Leave a Reply