الرئيسية / أخبار العالم / تحذير من عمليات الاحتيال باستخدام الذكاء الاصطناعي

تحذير من عمليات الاحتيال باستخدام الذكاء الاصطناعي

شاهد هذا الموضوع -تحذير من عمليات الاحتيال باستخدام الذكاء الاصطناعي- عبر موقع فري بوست والآن الى تفاصيل الموضوع


 حذر بنك ستارلينغ البريطاني من مخاطر متزايدة لعمليات الاحتيال التي تستخدم تقنيات الذكاء الاصطناعي لاستنساخ أصوات الأفراد، مما يهدد ملايين الأشخاص حول العالم. وفقًا للبيان الصادر عن البنك، يمكن للمحتالين تقليد صوت الشخص باستخدام ثلاث ثوانٍ فقط من الصوت المتوفر، مثل ما يمكن أن يخرج من مقطع فيديو نشره الشخص عبر الإنترنت.

تشير التقارير إلى أن المحتالين بإمكانهم التعرف على أصدقاء وأفراد أسرة الضحية، ثم إجراء مكالمات هاتفية مستخدمين الصوت المستنسخ لطلب المال. وأكد البنك أن هذه الأنواع من الاحتيال قد تؤدي إلى عمليات نصب ضخمة تستهدف العديد من الأفراد.

استنادًا إلى استطلاع أجرته ستارلينغ بنك بالتعاون مع “مورتار ريسيرش”، أظهر أن أكثر من ربع المشاركين تعرضوا لمحاولات احتيال عبر استنساخ الصوت خلال الأشهر الاثني عشر الماضية. وأشار الاستطلاع أيضًا إلى أن 46% من المشاركين لم يكونوا على دراية بوجود مثل هذه الاحتيالات، وأن نحو 8% منهم قد يرسلون أموالاً وفق طلبات تبدو غريبة، اعتمادًا على المكالمة.

ليزا جراهام، كبيرة مسؤولي أمن المعلومات في بنك ستارلينغ، أكدت أن الكثير من الأشخاص يشاركون محتوى صوتيًا عبر الإنترنت دون إدراكهم أنهم بذلك يعرضون أنفسهم للخطر، مضيفة أن المحتالين يواصلون تحسين تقنياتهم.

ولحماية أنفسهم، يشجع البنك عملاءه على الاتفاق على “عبارة آمنة” مميزة يسهل تذكرها، يمكن استخدامها للتحقق من الهوية أثناء المكالمات الهاتفية. وينصح البنك بعدم مشاركة هذه العبارة عبر الرسائل النصية، حيث يمكن أن تسهل على المحتالين اكتشافها. وفي حال تم تبادلها بهذه الطريقة، يُفضل حذف الرسالة فورًا بعد الاطلاع عليها.

مع تطور الذكاء الاصطناعي وقدرته المتزايدة على تقليد الأصوات البشرية، تتزايد المخاوف بشأن تأثيره السلبي المحتمل. وقد يؤدي ذلك إلى تعريض الأشخاص للخطر، كمنح المجرمين فرصة للوصول إلى حساباتهم المصرفية ونشر المعلومات المضللة.

في سياق مشابه، أعلنت شركة “أوبن آي” المصنعة لروبوت الدردشة “شات جي بي تي” في وقت سابق من هذا العام عن أداة النسخ الصوتي “فويس إنجين”، لكنها لم تجعلها متاحة للجمهور بسبب القلق من احتمال إساءة استخدام التكنولوجيا.

يذكر بأننا قد نشرنا لكم أعلاه تفاصيل ,تحذير من عمليات الاحتيال باستخدام الذكاء الاصطناعي, نرجوا بأن نكون قد وفقنا بتقديم التفاصيل والمعلومات الكاملة.
وقد وصلنا إلى نهاية المقال ، و تَجْدَرُ الإشارة بأن الموضوع الأصلي قد تم نشره ومتواجد على موقع النجم للأخبار التقنية وقد قام فريق التحرير في موقع فري بوست بالتأكد منه وربما تم التعديل عليه وربما قد يكون تم نقله بالكامل أو الإقتباس منه ويمكنك قراءة ومتابعة مستجدات هذا الخبر أو الموضوع من مصدره الأساسي ولا يتحمل فري بوست أية مسؤولية قانونية عن الصور أو الخبر المنشور شاكرين لكم متابعتكم.

رابط الخبر الأصلي