الذكاء الاصطناعي يهدد عرش كبار الشخصيات حول العالم
آخر تحديث 11:20:29 بتوقيت أبوظبي
 صوت الإمارات -
نتنياهو يجري الاثنين أول نقاش مع القيادات الأمنية حول الموقف من الاتفاق النووي الإيراني "الديري" عصابات من الأجانب بسوق العمل المتحدث باسم وزارة الصحة العراقية يعلن عن وجود إصابات في صفوف الأطفال والشباب بالسلالة المتحورة في العراق مقتل قيادي في ميليشيا حزب الله العراقية جراء انفجار عبوة ناسفة بمحافظة بابل مجلس التعاون الخليجي يدعو للتهدئة في الصومال وحل الخلافات بالطرق السلمية إيران تتهم الوكالة الدولية للطاقة الذرية بتسريب تقارير سرية عن نشاطها النووي الشرطة الأفغانية تعلن عن 3 انفجارات منفصلة في العاصمة الأفغانية كابول تخلف 5 قتلى على الأقل وجريحين الخارجية السودانية تعلن أن وزارة الخارجية الإثيوبية أصدرت بيانا مؤسفا يخوّن تاريخ علاقات إثيوبيا بالسودان وينحط فى وصفه للسودان إلى الإهانة التي لا تغتفر السودان يطالب أثيوبيا بالكف عن "ادعاءات لا يسندها حق ولا حقائق" الخارجية السودانية يؤكد أن السودان لا يمكن أن يأتمن إثيوبيا والقوات الأثيوبية على المساعدة فى بسط السلام وتأتي القوات الأثيوبية معتدية عبر الحدود
أخر الأخبار

يمكن صنع لقطات مزيفة عن طريق التلاعب

الذكاء الاصطناعي يهدد عرش كبار الشخصيات حول العالم

 صوت الإمارات -

 صوت الإمارات - الذكاء الاصطناعي يهدد عرش كبار الشخصيات حول العالم

Face2Face يتيح لك العرائس للمشاهير وللسياسيين
واشنطن - رولا عيسى

في عصر الفوتوشوب والفلاتر ومواقع التواصل الاجتماعي، فالكثير منا لا يستطيع رؤية  التلاعب في الصور فتصبح المواضيع أقل حجمًا وأكثر سلاسة، أما في حالة "سناب شات"، فتتحول الصور من صور أشخاص إلى جراء صغيرة، ومع ذلك، فهناك سلالة جديدة من أدوات التلاعب في الفيديو والصوت، حققت المستحيل من خلال التقدم في الذكاء الاصطناعي ورسومات الكمبيوتر والتي من شأنها تخلق لقطات تبدو واقعية للشخصيات العامة يمكنها أن تفعل أي شيء.

على سبيل المثال، ترامب يعلن ميله للرياضات المائية، وهيلاري كلينتون تكشف أنها تحافظ على تأمينها في قبو النبيذ، وتوم كروز اعترف أخيرا أنه بروني.. هذا هو مستقبل الأخبار المزيفة، لقد قيل لنا منذ زمنًا طويلا أن لا نصدق كل ما نقرأه، ولكن سرعان ما سيكون علينا أن نتساءل عن  ما نراه ونسمعه أيضًا، ففي الوقت الراهن، هناك العديد من فرق البحث تعمل عل تحليل مختلف العناصر البصرية والصوتية للسلوك البشري، وقد تم تطويرها البرمجيات في جامعة "ستانفورد" القادرة على التلاعب لقطات الفيديو للشخصيات العامة للسماح لشخص آخر بالتحكم فيما يقولون - فتقوم البرمجيات بنقل تعبيرات الوجه من شخص لشخص آخر مع تغير وإضافة بعض الكلمات، وأظهر فريق البحث التكنولوجيا الخاصة بهم من قبل أشرطة الفيديو العرائس من جورج بوش، فلاديمير بوتين ودونالد ترامب، من تلقاء نفسها، Face2Face  ومع ذلك فان ألعوبة نقل الوجه بتعبيراته " فيس تو فيس" هي ممتعة لخلق الميمات ومسلية في وقت متأخر من المضيفين حواري ليلا. 

ويعمل فريق بحث في جامعة ألاباما في برمنجهام على انتحال الصوت، مع 3-5 دقائق من صوت الضحية - تؤخذ مباشرة أو من أشرطة فيديو "يوتيوب" أو البرامج الإذاعية - فيمكن للمهاجم خلق صوت توليف الزى يمكن أن تخدع كل من البشر وأنظمة الأمن البيومترية الصوت المستخدمة من قبل بعض البنوك والهواتف الذكي، كما  يمكن للمهاجم التحدث إلى ميكروفون وسوف البرنامج تحويله بحيث الكلمات سليمة كما يتم التحدث بها من قبل الضحية - سواء كان ذلك عبر الهاتف أو على برنامج إذاعي

وقد طورت شركة ليريبيرد الكندية قدرات مماثلة، والتي تقول أنها يمكن أن تستخدم لتحويل النص على الفور "قراءة" من قبل أصوات شهيرة أو لشخصيات في ألعاب الفيديو، وعلى الرغم من أن نواياها قد تكون ذات معنى جيد، فإن تقنية تحويل الصوت يمكن أن تقترن بتكنولوجيا وتحوير الوجه لخلق بيانات وهمية مقنعة من الشخصيات العامة، فعليك أن تنظر في مشروع جامعة أوباما، حيث  قاموا بأخذ الصوت من خطب أوباما واستخدموه لتحريك وجهه في فيديو مختلف تماما بدقة لا تصدق للحصول على شعور.

 وقال نيتش ساكسينا، الأستاذ المساعد ومدير الأبحاث في جامعة ألاباما في قسم علوم الحاسب الآلي في برمنجهام، إنه بالإضافة إلى الأخبار المزيفة هناك العديد من الآثار الأخرى. "هل يمكنك ترك رسائل صوتية وهمية تشكل كأم لشخص ما أو تشويه سمعة شخص ما نشر عينات الصوت عبر الإنترنت."

وتعبر تقنيات مورفينغ ليست تقنيات مثالية بعد، فقد تبدو تعبيرات الوجه في أشرطة الفيديو مشوهة أو غير طبيعية قليلا، ويمكن أن تبدو الأصوات روبوتية قليلا، ولكن مع الوقت، سوف تكون قادر على إعادة العب في  الصوت أو مظهر شخص - إلى درجة قد يكون من الصعب جدا على البشر للكشف عن الاحتيال نظرا لتآكل الثقة في وسائل الإعلام وانتشار الخداع المتفشي عبر وسائل التواصل الاجتماعي، سيصبح من المهم بالنسبة للمؤسسات الإخبارية أن تدقق في المحتوى.

 وأوضح ماندي جينكينز، من شركة "ستوريفول" الإخبارية الاجتماعية، وهي شركة متخصصة في التحقق في المحتوى ،أن الناس يجب أن ينظروا أيضا إلى الإضاءة والظلال في الفيديو، وما إذا كانت جميع العناصر الواردة في الإطار في حجمها الصحيح، وما إذا كان الصوت متزامنا تماما محتوى الأخبار فالمحتوى الذي تم العبث  فيه لا يمكنه ان يمر من غرفه التحقق من الأخبار ولكنه إذا انتشر على مواقع التواصل الاجتماعي يمكن أن يسبب كارثة سياسية آو دبلوماسية  فتخيل ترامب وهو يعلن الحرب على كوريا الشمالية، مضيفًا :"إذا كان شخص ما يبدو مثل ترامب ويتحدث مثل ترامب فسوف يعتقد أنه ترامب

albahraintoday
albahraintoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

الذكاء الاصطناعي يهدد عرش كبار الشخصيات حول العالم الذكاء الاصطناعي يهدد عرش كبار الشخصيات حول العالم



GMT 06:16 2015 الإثنين ,12 تشرين الأول / أكتوبر

سترلينغ يخوض التدريب الأول له مع مانشستر سيتي

GMT 12:55 2018 الأربعاء ,18 تموز / يوليو

عبد المجيد الرافعي يعتبر ذاكرة مدينة طرابلس

GMT 08:55 2018 الخميس ,12 تموز / يوليو

758 عضوة في مجلس سيدات أعمال دبي

GMT 04:56 2018 الإثنين ,09 تموز / يوليو

تعرف على سبب تسمية الجامع الأزهر الشريف
 
syria-24

Maintained and developed by Arabs Today Group SAL
جمي الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
2023 جمي الحقوق محفوظة لمجموعة العرب اليوم الاعلامية ©

albahraintoday albahraintoday albahraintoday albahraintoday
albahraintoday albahraintoday albahraintoday
albahraintoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
emirates , emirates , Emirates