সুচিপত্র:

গভীর নকল: নিউরোসেটকে শব্দ এবং ভিডিও নকল তৈরি করতে শেখানো হয়েছিল
গভীর নকল: নিউরোসেটকে শব্দ এবং ভিডিও নকল তৈরি করতে শেখানো হয়েছিল

ভিডিও: গভীর নকল: নিউরোসেটকে শব্দ এবং ভিডিও নকল তৈরি করতে শেখানো হয়েছিল

ভিডিও: গভীর নকল: নিউরোসেটকে শব্দ এবং ভিডিও নকল তৈরি করতে শেখানো হয়েছিল
ভিডিও: একটি ডুবো ঘর নির্মাণ 🏠 2024, মে
Anonim

আমাদের কারও জন্য একটি "ব্যক্তিগত" সংবাদ চিত্র তৈরি করতে এবং এতে নির্বাচিত মিডিয়া রিপোর্টগুলিকে মিথ্যা প্রমাণ করতে, একজন প্রোগ্রামারের প্রচেষ্টাই আজ যথেষ্ট। কৃত্রিম বুদ্ধিমত্তা এবং সাইবার নিরাপত্তা বিশেষজ্ঞরা ইজভেস্টিয়াকে এ বিষয়ে জানিয়েছেন।

অতি সম্প্রতি, তারা অনুমান করেছে যে এর জন্য একাধিক দলের কাজ প্রয়োজন। এই ধরনের ত্বরণ সম্ভব হয়েছে নিউরাল নেটওয়ার্কগুলিতে আক্রমণের জন্য প্রযুক্তির বিকাশ এবং "গভীর নকল" তৈরির জন্য প্রোগ্রাম ব্যবহার করে অডিও এবং ভিডিও জাল তৈরির মাধ্যমে। সংবাদপত্র ইজভেস্টিয়া সম্প্রতি একই ধরণের হামলার শিকার হয়েছিল, যখন তিনটি লিবিয়ার নিউজ পোর্টাল একবারে একটি বার্তা প্রকাশ করেছিল যা অভিযোগগুলির একটিতে উপস্থিত হয়েছিল। বিশেষজ্ঞদের মতে, 3-5 বছরের মধ্যে আমরা রোবোটিক ম্যানিপুলেটরগুলির একটি আক্রমণ আশা করতে পারি, যা স্বয়ংক্রিয়ভাবে প্রচুর নকল তৈরি করতে সক্ষম হবে।

সাহসী নতুন বিশ্ব

নির্দিষ্ট ব্যবহারকারীদের উপলব্ধি তথ্য ছবি সামঞ্জস্য যে আরো এবং আরো প্রকল্প আছে. তাদের কাজের একটি উদাহরণ ছিল তিনটি লিবিয়ান পোর্টালের সাম্প্রতিক ক্রিয়াকলাপ, যা 20 নভেম্বর ইজভেস্টিয়া ইস্যুতে প্রকাশিত একটি সংবাদ প্রকাশ করেছে। জালটির নির্মাতারা সংবাদপত্রের প্রথম পৃষ্ঠায় পরিবর্তন করেছে, এতে ফিল্ড মার্শাল খলিফা হাফতার এবং জাতীয় চুক্তির (পিএনএস) সরকারের প্রধানমন্ত্রী ফয়েজ সররাজের মধ্যে আলোচনার বিষয়ে একটি বার্তা পোস্ট করেছে। ইজভেস্টিয়া টাইপফেসে জালটি মে 2017-এ তোলা দুই নেতার একটি ফটোর সাথে ছিল। প্রকাশনার লোগো সহ লেবেলটি 20 নভেম্বরের প্রকৃত প্রকাশিত সংখ্যা থেকে এবং 23 অক্টোবরের পৃষ্ঠার অন্যান্য সমস্ত পাঠ্য থেকে কাটা হয়েছে।

বিশেষজ্ঞদের দৃষ্টিকোণ থেকে, অদূর ভবিষ্যতে, এই ধরনের মিথ্যা স্বয়ংক্রিয়ভাবে করা যেতে পারে।

দ্য ট্রুম্যান শো - 2019: নিউরাল নেটওয়ার্কগুলি কীভাবে খবরের ছবি জাল করতে শিখিয়েছে
দ্য ট্রুম্যান শো - 2019: নিউরাল নেটওয়ার্কগুলি কীভাবে খবরের ছবি জাল করতে শিখিয়েছে

"কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি এখন সম্পূর্ণরূপে উন্মুক্ত, এবং ডেটা গ্রহণ এবং প্রক্রিয়াকরণের জন্য ডিভাইসগুলি ক্ষুদ্রতর এবং সস্তা হচ্ছে," ইউরি ভিলসিটার, ডক্টর অফ ফিজিক্যাল অ্যান্ড ম্যাথমেটিকাল সায়েন্সেস, রাশিয়ান একাডেমি অফ সায়েন্সেসের অধ্যাপক, FSUE "GosNIIAS" বিভাগের প্রধান, ইজভেস্টিয়াকে বলেছেন। - অতএব, এটা খুবই সম্ভব যে অদূর ভবিষ্যতে, এমনকি রাষ্ট্র এবং বড় কর্পোরেশনগুলিও নয়, তবে কেবলমাত্র ব্যক্তিগত ব্যক্তিরা আমাদের লুকিয়ে লুকিয়ে গুপ্তচরবৃত্তি করতে সক্ষম হবে, সেইসাথে বাস্তবতাকে হেরফের করতে সক্ষম হবে। আগামী বছরগুলিতে, ব্যবহারকারীর পছন্দগুলি বিশ্লেষণ করে, নিউজ ফিড এবং খুব চতুর নকলের মাধ্যমে তাকে প্রভাবিত করা সম্ভব হবে।

ইউরি ভিলসিটারের মতে, মানসিক পরিবেশে এমন হস্তক্ষেপের জন্য ব্যবহার করা যেতে পারে এমন প্রযুক্তি ইতিমধ্যেই বিদ্যমান। তত্ত্বগতভাবে, রোবোটিক বটগুলির আক্রমণ কয়েক বছরের মধ্যে আশা করা যেতে পারে, তিনি বলেছিলেন। এখানে একটি সীমিত বিন্দু দীর্ঘমেয়াদী পরিণতি ট্র্যাকিং সহ কৃত্রিম উদ্দীপনায় প্রকৃত মানুষের প্রতিক্রিয়ার উদাহরণগুলির বড় ডেটাবেস সংগ্রহ করার প্রয়োজন হতে পারে। লক্ষ্যযুক্ত আক্রমণগুলি ধারাবাহিকভাবে প্রাপ্ত হওয়ার আগে এই ধরনের ট্র্যাকিংয়ের জন্য সম্ভবত আরও কয়েক বছরের গবেষণার প্রয়োজন হবে।

দৃষ্টি আক্রমণ

সার্চইনফর্মের বিশ্লেষণ বিভাগের প্রধান আলেক্সি পারফেন্টিয়েভও ইউরি ভিলসিটারের সাথে একমত। তার মতে, বিশেষজ্ঞরা ইতিমধ্যেই নিউরাল নেটওয়ার্কগুলিতে আক্রমণের পূর্বাভাস দিয়েছেন, যদিও এখন কার্যত এমন কোন উদাহরণ নেই।

- গার্টনারের গবেষকরা বিশ্বাস করেন যে 2022 সাল নাগাদ, সমস্ত সাইবার আক্রমণের 30% এর উদ্দেশ্য হবে সেই ডেটা নষ্ট করা যার উপর নিউরাল নেটওয়ার্ক প্রশিক্ষিত এবং তৈরি মেশিন লার্নিং মডেলগুলি চুরি করা। তারপরে, উদাহরণস্বরূপ, চালকবিহীন যানবাহন হঠাৎ করে পথচারীদের অন্য বস্তুর জন্য ভুল করতে শুরু করতে পারে। এবং আমরা আর্থিক বা সুনামগত ঝুঁকি নিয়ে কথা বলব না, তবে সাধারণ মানুষের জীবন এবং স্বাস্থ্যের বিষয়ে কথা বলব, বিশেষজ্ঞ বিশ্বাস করেন।

কম্পিউটার ভিশন সিস্টেমের উপর হামলা এখন গবেষণার অংশ হিসেবে চালানো হচ্ছে। এই ধরনের আক্রমণের উদ্দেশ্য হল নিউরাল নেটওয়ার্ক ইমেজে এমন কিছু শনাক্ত করা যা সেখানে নেই। অথবা, বিপরীতভাবে, কি পরিকল্পনা করা হয়েছিল তা দেখতে না।

দ্য ট্রুম্যান শো - 2019: নিউরাল নেটওয়ার্কগুলি কীভাবে খবরের ছবি জাল করতে শিখিয়েছে
দ্য ট্রুম্যান শো - 2019: নিউরাল নেটওয়ার্কগুলি কীভাবে খবরের ছবি জাল করতে শিখিয়েছে

ক্যাসপারস্কি ল্যাবের একজন ওয়েব বিশ্লেষক ভ্লাদিস্লাভ তুশকানভ ব্যাখ্যা করেছেন, "নিউরাল নেটওয়ার্ক প্রশিক্ষণের ক্ষেত্রে সক্রিয়ভাবে উন্নয়নশীল বিষয়গুলির মধ্যে একটি হল তথাকথিত প্রতিকূল আক্রমণ ("বিরোধী আক্রমণ।" - ইজভেস্টিয়া)৷ - বেশিরভাগ ক্ষেত্রে, তারা কম্পিউটার ভিশন সিস্টেমের দিকে লক্ষ্য করে। এই ধরনের আক্রমণ চালানোর জন্য, বেশিরভাগ ক্ষেত্রে, আপনার নিউরাল নেটওয়ার্কে (তথাকথিত হোয়াইট-বক্স আক্রমণ) বা এর কাজের ফলাফল (ব্ল্যাক-বক্স আক্রমণ) সম্পূর্ণ অ্যাক্সেস থাকতে হবে। এমন কোনও পদ্ধতি নেই যা 100% ক্ষেত্রে কোনও কম্পিউটার ভিশন সিস্টেমকে প্রতারণা করতে পারে। উপরন্তু, সরঞ্জামগুলি ইতিমধ্যে তৈরি করা হয়েছে যা আপনাকে প্রতিপক্ষের আক্রমণের প্রতিরোধের জন্য নিউরাল নেটওয়ার্ক পরীক্ষা করতে এবং তাদের প্রতিরোধ বাড়াতে দেয়।

এই জাতীয় আক্রমণের সময়, আক্রমণকারী কোনওভাবে স্বীকৃত চিত্রটি পরিবর্তন করার চেষ্টা করে যাতে নিউরাল নেটওয়ার্ক কাজ না করে। প্রায়শই, শোরগোল ছবির উপরে চাপানো হয়, যা একটি খারাপ আলোকিত ঘরে ছবি তোলার সময় ঘটে। একজন ব্যক্তি সাধারণত এই ধরনের হস্তক্ষেপ ভালভাবে লক্ষ্য করেন না, তবে নিউরাল নেটওয়ার্ক ত্রুটিপূর্ণ হতে শুরু করে। কিন্তু এই ধরনের আক্রমণ চালানোর জন্য, আক্রমণকারীর অ্যালগরিদমের অ্যাক্সেস প্রয়োজন।

নিউরোসেট আশমানভের জেনারেল ডিরেক্টর স্ট্যানিস্লাভ আশমানভের মতে, বর্তমানে এই সমস্যা মোকাবেলার কোনো পদ্ধতি নেই। উপরন্তু, এই প্রযুক্তি যে কারো জন্য উপলব্ধ: একজন গড় প্রোগ্রামার Github পরিষেবা থেকে প্রয়োজনীয় ওপেন সোর্স সফ্টওয়্যার ডাউনলোড করে এটি ব্যবহার করতে পারেন।

দ্য ট্রুম্যান শো - 2019: নিউরাল নেটওয়ার্কগুলি কীভাবে খবরের ছবি জাল করতে শিখিয়েছে
দ্য ট্রুম্যান শো - 2019: নিউরাল নেটওয়ার্কগুলি কীভাবে খবরের ছবি জাল করতে শিখিয়েছে

- একটি নিউরাল নেটওয়ার্কের উপর আক্রমণ হল একটি নিউরাল নেটওয়ার্ককে প্রতারণা করার জন্য একটি কৌশল এবং অ্যালগরিদম, যা এটিকে মিথ্যা ফলাফল তৈরি করে এবং প্রকৃতপক্ষে এটি দরজার তালার মতো ভেঙে দেয়, - আশমানভ বিশ্বাস করেন। - উদাহরণস্বরূপ, এখন ফেস রিকগনিশন সিস্টেমটিকে মনে করা বেশ সহজ যে এটি আপনি নন, তবে এটির সামনে আর্নল্ড শোয়ার্জনেগার - এটি নিউরাল নেটওয়ার্কে আসা ডেটাতে মানুষের চোখের জন্য অদৃশ্য অ্যাডিটিভ মিশ্রিত করে করা হয়। বক্তৃতা স্বীকৃতি এবং বিশ্লেষণ সিস্টেমের জন্য একই আক্রমণ সম্ভব।

বিশেষজ্ঞ নিশ্চিত যে এটি কেবল আরও খারাপ হবে - এই প্রযুক্তিগুলি জনসাধারণের কাছে চলে গেছে, প্রতারকরা ইতিমধ্যেই সেগুলি ব্যবহার করছে এবং তাদের বিরুদ্ধে কোনও সুরক্ষা নেই। যেহেতু ভিডিও এবং অডিও জালিয়াতির স্বয়ংক্রিয় সৃষ্টির বিরুদ্ধে কোন সুরক্ষা নেই৷

গভীর নকল

ডিপ লার্নিং এর উপর ভিত্তি করে ডিপফেক প্রযুক্তি (নিউরাল নেটওয়ার্কের গভীর শিক্ষার প্রযুক্তি। - ইজভেস্টিয়া) ইতিমধ্যেই একটি সত্যিকারের হুমকি হয়ে দাঁড়িয়েছে। ভিডিও বা অডিও নকল বিখ্যাত ব্যক্তিদের মুখ সম্পাদনা বা ওভারলে করে তৈরি করা হয় যারা অনুমিতভাবে প্রয়োজনীয় পাঠ্য উচ্চারণ করে এবং প্লটে প্রয়োজনীয় ভূমিকা পালন করে।

"ডিপফেক আপনাকে ভিডিও দিয়ে ঠোঁটের নড়াচড়া এবং মানুষের বক্তৃতা প্রতিস্থাপন করতে দেয়, যা যা ঘটছে তার বাস্তবতার অনুভূতি তৈরি করে," বলেছেন আন্দ্রে বুসারগিন, গ্রুপ-আইবি-তে উদ্ভাবনী ব্র্যান্ড সুরক্ষা এবং বৌদ্ধিক সম্পত্তি বিভাগের পরিচালক৷ - নকল সেলিব্রিটিরা সামাজিক নেটওয়ার্কগুলিতে ব্যবহারকারীদের মূল্যবান পুরস্কার (স্মার্টফোন, গাড়ি, অর্থের অঙ্ক) অঙ্কনে অংশগ্রহণের জন্য "অফার" করে। এই ধরনের ভিডিও প্রকাশনার লিঙ্কগুলি প্রায়ই প্রতারণামূলক এবং ফিশিং সাইটের দিকে নিয়ে যায়, যেখানে ব্যবহারকারীদের ব্যাঙ্ক কার্ডের বিবরণ সহ ব্যক্তিগত তথ্য প্রবেশ করতে বলা হয়। এই ধরনের স্কিমগুলি সাধারণ ব্যবহারকারী এবং বিজ্ঞাপনে উল্লিখিত পাবলিক ব্যক্তিত্ব উভয়ের জন্যই হুমকি হয়ে দাঁড়ায়। এই ধরনের স্ক্যাম স্ক্যাম বা বিজ্ঞাপনী পণ্যের সাথে সেলিব্রিটি ছবি যুক্ত করতে শুরু করে এবং এখানেই আমরা ব্যক্তিগত ব্র্যান্ডের ক্ষতির সম্মুখীন হই, তিনি বলেন।

দ্য ট্রুম্যান শো - 2019: নিউরাল নেটওয়ার্কগুলি কীভাবে খবরের ছবি জাল করতে শিখিয়েছে
দ্য ট্রুম্যান শো - 2019: নিউরাল নেটওয়ার্কগুলি কীভাবে খবরের ছবি জাল করতে শিখিয়েছে

আরেকটি হুমকি টেলিফোন জালিয়াতির জন্য "জাল ভোট" ব্যবহারের সাথে যুক্ত। উদাহরণস্বরূপ, জার্মানিতে, সাইবার অপরাধীরা যুক্তরাজ্য থেকে একটি সহায়ক সংস্থার প্রধানকে একটি কোম্পানির ব্যবস্থাপক হিসাবে জাহির করে একটি টেলিফোন কথোপকথনে জরুরিভাবে € 220,000 স্থানান্তর করতে ভয়েস ডিপফেক ব্যবহার করে৷হাঙ্গেরিয়ান সরবরাহকারীর অ্যাকাউন্টে। ব্রিটিশ ফার্মের প্রধান একটি কৌশল সন্দেহ করেছিলেন যখন তার "বস" দ্বিতীয় মানি অর্ডার চেয়েছিলেন, কিন্তু কলটি একটি অস্ট্রিয়ান নম্বর থেকে এসেছিল। এই সময়ের মধ্যে, প্রথম কিস্তি ইতিমধ্যে হাঙ্গেরির একটি অ্যাকাউন্টে স্থানান্তরিত হয়েছে, যেখান থেকে অর্থ মেক্সিকোতে তোলা হয়েছিল।

দেখা যাচ্ছে যে বর্তমান প্রযুক্তি আপনাকে জাল খবরে ভরা একটি পৃথক সংবাদ ছবি তৈরি করতে দেয়। তাছাড়া, শীঘ্রই হার্ডওয়্যারের মাধ্যমে আসল ভিডিও এবং অডিও থেকে নকলকে আলাদা করা সম্ভব হবে। বিশেষজ্ঞদের মতে, নিউরাল নেটওয়ার্কের বিকাশকে নিষিদ্ধ করার ব্যবস্থা কার্যকর হওয়ার সম্ভাবনা কম। অতএব, শীঘ্রই আমরা এমন একটি বিশ্বে বাস করব যেখানে ক্রমাগত সবকিছু পুনরায় পরীক্ষা করা প্রয়োজন।

"আমাদের এটির জন্য প্রস্তুত করতে হবে, এবং এটি অবশ্যই গ্রহণ করা উচিত," ইউরি ভিলসিটার জোর দিয়েছিলেন। - মানবতা প্রথমবার এক বাস্তবতা থেকে অন্য বাস্তবে চলে যাওয়া নয়। আমাদের পৃথিবী, জীবনযাপনের পদ্ধতি এবং মূল্যবোধগুলি আমাদের পূর্বপুরুষরা 60,000 বছর আগে, 5,000 বছর আগে, 2,000 বছর আগে, এমনকি 200-100 বছর আগেও যে বিশ্বে বসবাস করেছিলেন তার থেকে আমূল আলাদা। অদূর ভবিষ্যতে, একজন ব্যক্তি মূলত গোপনীয়তা থেকে বঞ্চিত হবেন এবং তাই কিছু লুকাতে এবং সততার সাথে কাজ করতে বাধ্য হবেন। একই সময়ে, আশেপাশের বাস্তবতা এবং নিজের ব্যক্তিত্বের কিছুই বিশ্বাসের উপর নেওয়া যায় না, সবকিছুকে প্রশ্নবিদ্ধ করতে হবে এবং ক্রমাগত পুনঃচেক করতে হবে। কিন্তু ভবিষ্যতের এই বাস্তবতা কি ভয়াবহ হবে? না. এটি কেবল সম্পূর্ণ ভিন্ন হবে।

প্রস্তাবিত: