অন্যান্য কোম্পানির এআই বা কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি নকল ছবি চিহ্নিত ও লেবেল করার নতুন প্রযুক্তি নিয়ে আসছে মেটা। প্রযুক্তিটি কোম্পানির ফেসবুক, ইনস্টাগ্রাম ও থ্রেড প্ল্যাটফর্মে ব্যবহার করা হবে। বিবিসির এক প্রতিবেদনে এসব তথ্য জানা যায়।
আগেই থেকে মেটার নিজস্ব সিস্টেমের মাধ্যমে এআই দিয়ে তৈরি ছবি লেবেল করা হতো। তবে এই নতুন প্রযুক্তি এআই ভিত্তিক নকল কনটেন্ট চিহ্নিতকরণের ‘গতি’ বৃদ্ধি করবে।
তবে বিবিসিকে এক এআই বিশেষজ্ঞ বলেন, এই ধরনের প্রযুক্তি খুব ‘সহজেই এড়ানো’ যায়।
একটি ব্লগে সিনিয়র এক্সিকিউটিভ স্যার নিক ক্লেগ বলেন, ‘আগামী মাসগুলোতে’ এআই লেবেলে বিভিন্ন প্ল্যাটফর্মে নিয়ে আসতে চায় মেটা।
তিনি বলেন, এই প্রযুক্তি এখনো সম্পূর্ণ তৈরি নয়। তবে কোম্পানিটি ‘অন্যান্য শিল্পের অনুসরণ করার জন্য গতি এবং উৎসাহ তৈরি করতে চায়’।
মেরিল্যান্ড বিশ্ববিদ্যালয়ের নির্ভরযোগ্য এআই ল্যাবের পরিচালক প্রফেসর সোহেল ফিজি বলেন, এই ধরনের সিস্টেমকে খুক সহজেই এড়িয়ে যাওয়া বা ফাঁকি দেওয়া যায়। কিছু নির্দিষ্ট মডেল ব্যবহার করে তৈরি ছবি চিহ্নিত করতে কোম্পানিটি তাদের প্রযুক্তিকে প্রশিক্ষণ দিতে পারে। তবে ছবির ওপরে কিছু হালকা প্রক্রিয়াকরণের মাধ্যমে ডিটেক্টরগুলোকে সহজেই এড়ানো যায় ও এটি উচ্চ হারে ভুল ফলাফলও দিতে পারে। তাই এটি বিস্তৃত পরিসরের অ্যাপ্লিকেশনের জন্য কাজ নাও করতে পারে।
টুলটি অডিও ও ভিডিওর জন্য কাজ করবে না বলে মেটা স্বীকার করেছে। কিন্তু এসব নকল কনটেন্ট নিয়ে অনেক বেশি উদ্বেগ রয়েছে।
কোম্পানিটি বলছে, এআই দিয়ে তৈরি ছবি ও ভিডিওগুলোয় লেবেল করার জন্য গ্রাহকদের নির্দেশনা দিয়েছে মেটা। তবে এটি করতে ব্যর্থ হলে গ্রাহকদের জরিমানা দিতেও হতে পারে।
নিক ক্লেগ বলেন, চ্যাটজিপিটির মতো টুল দিয়ে টেক্সট তৈরি করলে তা চিহ্নিত করাও অসম্ভব।
গণমাধ্যমকে ম্যানিপুলেটেড করার নীতির জন্য গত সোমবার মেটা তদারকি বোর্ড কোম্পানিটির অনেক সমালোচনা করে। অসংলগ্ন, ন্যায্যতার অভাব ও কীভাবে কনটেন্ট তৈরি করা হয়েছে তা সঠিকভাবে মেটা লক্ষ্য করেছে না বলে বোর্ডটি অভিযোগ করে।
তদারকি বোর্ডটি মেটা অর্থায়ন করে তবে এটি স্বাধীন গ্রুপ হিসেবে কাজ করে।
যুক্তরাষ্ট্রের প্রেসিডেন্ট জো বাইডেনের একটি নকল ভিডিওর প্রতিক্রিয়ায় এই সমালোচনা করা হয়েছিল। প্রশ্নবিদ্ধ ভিডিওটি প্রেসিডেন্টের নাতনির সঙ্গে বিদ্যমান ফুটেজ সম্পাদনা করে তৈরি করা হয়। ভিডিওতে দেখানো হয়, বাইডেন তাকে অনুপযুক্তভাবে স্পর্শ করছেন।
কারণ এটি কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে ভিডিওটি তৈরি করা হয়নি তাই এটি মেটার ম্যানিপুলেটেড মিডিয়া নীতি লঙ্ঘন করেনি এবং প্ল্যাটফর্মগুলো থেকে সরানো হয়নি।
ভিডিওটি নকল মিডিয়া সম্পর্কিত মেটা নীতির ভঙ্গ করেনি বলে বোর্ডের সদস্যরা একমত হন এবং বলেন, এই নীতিগুলো আপডেট করা জরুরি।
জানুয়ারি থেকে, কোম্পানির একটি নতুন নীতি তৈরি করা রয়েছে। এই নীতিতে বলা হয়, রাজনৈতিক বিজ্ঞাপনগুলো যখন ডিজিটালভাবে পরিবর্তিত ছবি বা ভিডিও ব্যবহার করছে তখন তাদের লেবেল করতে হবে।
অন্যান্য কোম্পানির এআই বা কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি নকল ছবি চিহ্নিত ও লেবেল করার নতুন প্রযুক্তি নিয়ে আসছে মেটা। প্রযুক্তিটি কোম্পানির ফেসবুক, ইনস্টাগ্রাম ও থ্রেড প্ল্যাটফর্মে ব্যবহার করা হবে। বিবিসির এক প্রতিবেদনে এসব তথ্য জানা যায়।
আগেই থেকে মেটার নিজস্ব সিস্টেমের মাধ্যমে এআই দিয়ে তৈরি ছবি লেবেল করা হতো। তবে এই নতুন প্রযুক্তি এআই ভিত্তিক নকল কনটেন্ট চিহ্নিতকরণের ‘গতি’ বৃদ্ধি করবে।
তবে বিবিসিকে এক এআই বিশেষজ্ঞ বলেন, এই ধরনের প্রযুক্তি খুব ‘সহজেই এড়ানো’ যায়।
একটি ব্লগে সিনিয়র এক্সিকিউটিভ স্যার নিক ক্লেগ বলেন, ‘আগামী মাসগুলোতে’ এআই লেবেলে বিভিন্ন প্ল্যাটফর্মে নিয়ে আসতে চায় মেটা।
তিনি বলেন, এই প্রযুক্তি এখনো সম্পূর্ণ তৈরি নয়। তবে কোম্পানিটি ‘অন্যান্য শিল্পের অনুসরণ করার জন্য গতি এবং উৎসাহ তৈরি করতে চায়’।
মেরিল্যান্ড বিশ্ববিদ্যালয়ের নির্ভরযোগ্য এআই ল্যাবের পরিচালক প্রফেসর সোহেল ফিজি বলেন, এই ধরনের সিস্টেমকে খুক সহজেই এড়িয়ে যাওয়া বা ফাঁকি দেওয়া যায়। কিছু নির্দিষ্ট মডেল ব্যবহার করে তৈরি ছবি চিহ্নিত করতে কোম্পানিটি তাদের প্রযুক্তিকে প্রশিক্ষণ দিতে পারে। তবে ছবির ওপরে কিছু হালকা প্রক্রিয়াকরণের মাধ্যমে ডিটেক্টরগুলোকে সহজেই এড়ানো যায় ও এটি উচ্চ হারে ভুল ফলাফলও দিতে পারে। তাই এটি বিস্তৃত পরিসরের অ্যাপ্লিকেশনের জন্য কাজ নাও করতে পারে।
টুলটি অডিও ও ভিডিওর জন্য কাজ করবে না বলে মেটা স্বীকার করেছে। কিন্তু এসব নকল কনটেন্ট নিয়ে অনেক বেশি উদ্বেগ রয়েছে।
কোম্পানিটি বলছে, এআই দিয়ে তৈরি ছবি ও ভিডিওগুলোয় লেবেল করার জন্য গ্রাহকদের নির্দেশনা দিয়েছে মেটা। তবে এটি করতে ব্যর্থ হলে গ্রাহকদের জরিমানা দিতেও হতে পারে।
নিক ক্লেগ বলেন, চ্যাটজিপিটির মতো টুল দিয়ে টেক্সট তৈরি করলে তা চিহ্নিত করাও অসম্ভব।
গণমাধ্যমকে ম্যানিপুলেটেড করার নীতির জন্য গত সোমবার মেটা তদারকি বোর্ড কোম্পানিটির অনেক সমালোচনা করে। অসংলগ্ন, ন্যায্যতার অভাব ও কীভাবে কনটেন্ট তৈরি করা হয়েছে তা সঠিকভাবে মেটা লক্ষ্য করেছে না বলে বোর্ডটি অভিযোগ করে।
তদারকি বোর্ডটি মেটা অর্থায়ন করে তবে এটি স্বাধীন গ্রুপ হিসেবে কাজ করে।
যুক্তরাষ্ট্রের প্রেসিডেন্ট জো বাইডেনের একটি নকল ভিডিওর প্রতিক্রিয়ায় এই সমালোচনা করা হয়েছিল। প্রশ্নবিদ্ধ ভিডিওটি প্রেসিডেন্টের নাতনির সঙ্গে বিদ্যমান ফুটেজ সম্পাদনা করে তৈরি করা হয়। ভিডিওতে দেখানো হয়, বাইডেন তাকে অনুপযুক্তভাবে স্পর্শ করছেন।
কারণ এটি কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে ভিডিওটি তৈরি করা হয়নি তাই এটি মেটার ম্যানিপুলেটেড মিডিয়া নীতি লঙ্ঘন করেনি এবং প্ল্যাটফর্মগুলো থেকে সরানো হয়নি।
ভিডিওটি নকল মিডিয়া সম্পর্কিত মেটা নীতির ভঙ্গ করেনি বলে বোর্ডের সদস্যরা একমত হন এবং বলেন, এই নীতিগুলো আপডেট করা জরুরি।
জানুয়ারি থেকে, কোম্পানির একটি নতুন নীতি তৈরি করা রয়েছে। এই নীতিতে বলা হয়, রাজনৈতিক বিজ্ঞাপনগুলো যখন ডিজিটালভাবে পরিবর্তিত ছবি বা ভিডিও ব্যবহার করছে তখন তাদের লেবেল করতে হবে।
কৃত্রিম বুদ্ধিমত্তা (এআই) ভিত্তিক চ্যাটজিপিটির পরামর্শ মেনে খাদ্যাভাস পরিবর্তন করায় নিউইয়র্কের ৬০ বছর বয়সী এক ব্যক্তি হাসপাতালে ভর্তি হন। চিকিৎসকদের মতে, কয়েক সপ্তাহের মধ্যে খাদ্যাভ্যাসে প্রায় সম্পূর্ণভাবে লবণ বাদ দিয়ে ফেলেন ওই ব্যক্তি, যার ফলে তার শরীরে বিপজ্জনকভাবে সোডিয়ামের ঘাটতি দেখা দেয়।
২১ দিন আগেঅ্যাপলের অ্যাপ স্টোর নীতিমালা নিয়ে তীব্র সমালোচনা করেছেন বিশ্বখ্যাত প্রযুক্তি উদ্যোক্তা এবং এক্সএআইয়ের প্রতিষ্ঠাতা ইলন মাস্ক। নিজের এক্স (সাবেক টুইটার) অ্যাকাউন্টে পিন করা একটি পোস্টে মাস্ক দাবি করেন, অ্যাপল ইচ্ছাকৃতভাবে ওপেনএআই ছাড়া অন্য কোনো কৃত্রিম বুদ্ধিমত্তাভিত্তিক কোম্পানিকে অ্যাপ স্টোরের র্য
২১ দিন আগেবিশ্বের জনপ্রিয় এআই চ্যাটবট চ্যাটজিপিটির নির্মাতা প্রতিষ্ঠান ওপেনএআই সম্প্রতি তাদের সর্বশেষ সংস্করণ জিপিটি-৫ উন্মোচন করেছে। প্রতিষ্ঠানটি দাবি করছে, এই মডেলটি মানুষের পিএইচডি লেভেলের দক্ষ!
২১ দিন আগেস্মার্টফোন আসক্তি অনেকের কাছে ব্যাপক মাথাব্যথার কারণ। বিরতিহীন স্মার্টফোন স্ক্রলিংয়ের কারণে অন্যান্য কাজে মনোযোগ নষ্ট হয়। তা ছাড়া মানসিক স্বাস্থ্যের ওপর এর নেতিবাচক প্রভাব পড়ে। তবে স্মার্টফোনের আসক্তি কমানো যায় স্মার্টফোন দিয়েই। বিভিন্ন অ্যাপ দিয়ে সোশ্যাল মিডিয়া আসক্তি থেকে বেরিয়ে আসা যায়। দেখে নিন
২১ দিন আগে