Web Analytics Made Easy - Statcounter
به نقل از «باشگاه خبرنگاران»
2024-05-02@03:00:55 GMT

آیا ChatGPT تهدیدی برای امنیت سایبری است؟

تاریخ انتشار: ۱۸ بهمن ۱۴۰۱ | کد خبر: ۳۷۰۴۲۱۹۸

آیا ChatGPT تهدیدی برای امنیت سایبری است؟

آیا چت ربات ۱۰۰ میلیون کاربر ChatGPT با استفاده از سیستم عامل Ai با توجه به این که می‌تواند کد‌های مخرب و همچنین ایمیل‌های فیشینگ ایجاد کند، یک خطر امنیت سایبری را نشان می‌دهد؟

تحقیقات جدید منتشر شده از بلک بری نشان می‌دهند که ربات ChatGPT مجهز به هوش مصنوعی می‌تواند یک تهدید امنیت سایبری باشد.

شیشیر سینگ، مدیر ارشد فناوری امنیت سایبری در بلک بری، گفت: به خوبی مستند شده است افرادی با نیت مخرب در حال آزمایش آن هستند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

سینگ در ادامه گفت: بلک بری انتظار دارد در طول سال ۲۰۲۳ شاهد بهبود هکر‌ها در استفاده از ابزار نوشتن برای مقاصد شوم باشد و سینگ تنها نیست. نظرسنجی کارشناسان فناوری اطلاعات در سراسر آمریکای شمالی، انگلیس و استرالیا ۵۱ مورد را مشاهده کرد. برخی از این کارشناسان معتقدند حمله سایبری مبتنی بر ChatGPT احتمالا قبل از پایان سال رخ می‌دهد؛ در حالی که ۷۱ ٪ گفتند که فکر می‌کنند دولت-ملت‌ها احتمالا از قبل از این فناوری علیه سایر کشور‌ها استفاده می‌کنند.

پایگاه کاربر ChatGPT تنها در دو ماه به ۱۰۰ میلیون رسید

به راحتی می‌توان آن درصد‌های بالا را به عنوان یک واکنش هذلولی و تند نسبت به چیزی که مسلما یک کاربرد تاثیرگذار است، رد کرد. شما فقط باید به رشد سریع استفاده نگاه کنید که طبق گزارش‌ها سریع‌ترین برنامه مصرف کننده در حال رشد است.

برای درک این موضوع، ChatGPT در دسامبر ۲۰۲۲ تنها برای استفاده عمومی باز شد. تقریبا ۹ ماه طول کشید تا تیک تاک به همان اعداد برسد. به راحتی می‌توان فهمید که چرا مردم نگران فرصت سوءاستفاده هستند؛ زیرا ربات Open-AI فقط سرمقاله نمی‌نویسد، بلکه می‌تواند کد ایجاد کند.

محققان امنیتی با استفاده از ChatGPT بدافزار ایجاد می‌کنند

در ماه ژانویه، محققان متخصص امنیت سایبری CyberArk، یک وبلاگ تحقیقاتی تهدید منتشر کردند که در آن نحوه ایجاد بدافزار چند شکلی با استفاده از ChatGPT توضیح داده شد. همان طور که ممکن است انتظار داشته باشید، کمی پیچیده می‌شود؛ اما به طور خلاصه، محققان توانستند فیلتر‌های خط مشی محتوای ایجاد شده توسط OpenAI را برای جلوگیری از سوءاستفاده از ChatGPT دور بزنند. اگر از ربات هوش مصنوعی بخواهید چند کد مخرب در پایتون ایجاد کند، مودبانه امتناع می‌کند.

با این حال با فرآیندی که محققان در طول درخواست ورودی آن را «اصرار و تقاضا» نامیدند، امکان ایجاد کد اجرایی وجود داشت. این مشکل ساز است، اما زمانی که آن‌ها به ایجاد کد بدافزار چند شکلی ادامه دادند، بیشتر شد. کد جهش یافته توسط ChatGPT برای ایجاد تکرار‌های مختلف برای فریب دادن سیستم‌های تشخیص اولیه مبتنی بر امضا.

آیا این یک نگرانی قابل توجه است؟

همان طور که محققان گفتند، زمانی که بدافزار بر روی دستگاه مورد نظر وجود دارد، از کد‌های مخربی تشکیل شده است که آن را مستعد شناسایی توسط نرم‌افزار‌های امنیتی می‌کند. البته خطر این است که ChatGPT نمونه‌ای از یادگیری ماشینی است. هرچه ورودی‌های بیشتری دریافت کند، در طول زمان خروجی‌های بهتری خواهد داشت. فقط بهتر خواهد شد.

شواهدی از مجرمان سایبری در حال بررسی قابلیت‌های ChatGPT

محققان در یکی دیگر از تجهیزات امنیتی، Check Point Re۴search نیز گزارشی را در ژانویه منتشر کردند که در آن بررسی شده بود که چگونه مجرمان سایبری قبلا شروع به استفاده از ChatGPT با اهداف مخرب کرده‌اند.

محققان گفتند علاوه بر ایجاد یک ایمیل فیشینگ متقاعد کننده، عوامل تهدید کننده را در انجمن‌های مجرمانه پیدا کردند که یک کد بدافزار کاملا ابتدایی و مبنی بر سرقت اطلاعات مبتنی بر پایتون را به اشتراک می‌گذاشتند.

همچنین گزارش شده است که یک اسکریپت جاوا مخرب با استفاده از ChatGPT ایجاد شده است. یکی دیگر از بازیگران تهدید اعتراف کرد که ChatGPT به او «فرصت خوبی» در تکمیل یک ابزار رمزگذار پایتون از نوعی که می‌توان برای کار در یک باج‌افزار توسعه داد، داده است.

محققان گفتند بسیاری از مجرمان سایبری درگیر اصلا هیچ مهارتی در توسعه ندارند، این شاید نگران‌کننده‌ترین جنبه باشد؛ زیرا آخرین چیزی که دنیا به آن نیاز دارد این است که اسکریپت‌های مخرب خود را بسازند.

یکی دیگر از ریسک‌های مرتبط با مدل‌های هوش مصنوعی مانند ChatGPT احتمال استفاده از آن‌ها برای اهداف مخرب است. به عنوان مثال یک مهاجم می‌تواند یک ربات چت جعلی ایجاد کند که شبیه یک نماینده قانونی خدمات مشتری به نظر می‌رسد و از آن برای فریب دادن افراد برای دست کشیدن از خدمات مشتری، اطلاعات شخصی یا خرید‌های غیرمجاز استفاده کند. اگر مهاجم بتواند ربات چت را به نظر برساند که از یک سازمان قابل اعتماد است، مانند بانک یا سازمان دولتی، این امر می‌تواند خطرناک باشد.

توانایی مدل‌های زبانی مانند ChatGPT برای نوشتن کد‌های مخرب موضوع مورد نگرانی بسیاری از سازمان‌ها و افراد است. با پیچیده‌تر شدن این مدل‌ها، پتانسیل استفاده از آن‌ها برای اهداف مخرب افزایش می‌یابد. با این حال، درک این نکته مهم است. خطر مرتبط با نوشتن کد‌های مخرب ChatGPT ذاتی خود فناوری نیست، بلکه بستگی به نحوه استفاده از آن دارد.

به عنوان مثال، یک مهاجم می‌تواند یک مدل زبان را آموزش دهد تا کدی تولید کند که از آسیب‌پذیری‌ها در برنامه‌های نرم‌افزاری سوء استفاده می‌کند. این می‌تواند برای انجام حملاتی مانند سرقت داده یا انکار سرویس استفاده شود. مهاجم همچنین می‌تواند از مدل زبان برای تولید کد استفاده کند که برای فرار از تشخیص توسط ابزار‌های امنیتی طراحی شده است و تشخیص و جلوگیری از حمله را دشوارتر می‌کند.

البته ما نباید تحت تاثیر کل هذل‌گویی خطرناک هوش مصنوعی پیرامون ChatGPT قرار بگیریم. این ابزاری چشمگیر است که پتانسیل انجام کار‌های خوب حتی در زمینه تحقیقات امنیت سایبری را دارد؛ با این حال مانند هر فناوری دیگری، افراد بد از ابزار‌های خوب برای انجام کار‌های بد استفاده می‌کنند.

در پایان، توانایی مدل‌های زبانی مانند ChatGPT برای نوشتن کد‌های مخرب یک نگرانی واقعی است، این یک خطر ذاتی برای خود فناوری نیست، بلکه نتیجه نحوه استفاده از آن است.

منبع: forbes

باشگاه خبرنگاران جوان علمی پزشکی فناوری

منبع: باشگاه خبرنگاران

کلیدواژه: هوش مصنوعی چت جی پی تی چت بات امنیت سایبری استفاده از ChatGPT استفاده از آن امنیت سایبری کد های مخرب هوش مصنوعی مدل ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.yjc.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۰۴۲۱۹۸ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

ChatGPT در تشخیص آبسه مغزی شکست خورد

در پژوهش جدیدی که برای ارزیابی توانایی ChatGPT در تشخیص بیماری‌ها انجام شد، این مدل هوش مصنوعی نتوانست آبسه مغزی را به درستی تشخیص دهد.

به گزارش ایسنا، به رغم این که هوش مصنوعی در حال تبدیل شدن به یک بخش اساسی از پژوهش‌های بالینی و تصمیم‌گیری است، بسیاری از افراد هنوز صحت ChatGPT را برای پشتیبانی از فرآیندهای تشخیصی و درمانی پیچیده زیر سوال می‌برند.

به نقل از میراژ نیوز، یک پژوهش جدید که ChatGPT را برای مدیریت کردن «آبسه مغزی»(Brain abscess) به کار گرفته، نشان داده که اگرچه به نظر می‌رسد ChatGPT قادر به ارائه دادن توصیه‌هایی درباره تشخیص و درمان است اما برخی از پاسخ‌های این مدل هوش مصنوعی می‌توانند بیماران را در معرض خطر قرار دهند.

این پژوهش که در کنگره جهانی «انجمن میکروبیولوژی بالینی و بیماری‌های عفونی اروپا»(ESCMID) در شهر بارسلون اسپانیا ارائه شد، توسط اعضای گروه پژوهشی «بیماری‌های عفونی مغز»(ESGIB) انجام شده است.

دکتر «سوزان دایکوف شن»(Susanne Dyckhoff-Shen) از بیمارستان «دانشگاه لودویگ ماکسیمیلیان مونیخ»(LMU) در آلمان و یکی از اعضای انجمن میکروبیولوژی بالینی و بیماری‌های عفونی اروپا گفت: زمانی که با ایمنی بیمار سر و کار دارید، هر نتیجه کمتر از ۱۰۰ درصد یک شکست است. اگرچه ما از دانش ChatGPT درباره مدیریت آبسه‌های مغزی شگفت‌زده شده‌ایم اما محدودیت‌های کلیدی در استفاده از این مدل هوش مصنوعی به عنوان یک دستگاه پزشکی وجود دارد که از جمله آنها می‌توان به آسیب احتمالی بیمار و عدم شفافیت داده‌ها برای ارائه پاسخ اشاره کرد.

توانایی هوش مصنوعی در جذب سریع، پردازش و تفسیر مجموعه داده‌های گسترده، چشم‌انداهای وسوسه‌انگیزی را نشان می‌دهد اما این پرسش نیز به وجود می‌آید که آیا فرآیندهای زمان‌بر برای ایجاد دستورالعمل‌های پزشکی هنوز ضروری هستند یا اینکه مدل‌های هوش مصنوعی آموزش‌دیده با انبوهی از اطلاعات پزشکی می‌توانند در پاسخ به پرسش‌های پیچیده بالینی با کارشناسان بالینی رقابت کنند.

آبسه‌ مغزی یک عفونت تهدیدکننده در سیستم عصبی مرکزی است که برای جلوگیری از عوارض شدید عصبی و حتی مرگ بیمار باید به سرعت شناسایی و درمان شود. مدیریت آبسه‌های مغزی عمدتا براساس تجربه بالینی و پژوهش‌های محدود انجام می‌شود اما انجمن میکروبیولوژی بالینی و بیماری‌های عفونی اروپا در سال ۲۰۲۳، نیاز به یک روش استاندارد را با توسعه یک دستورالعمل بین‌المللی برآورده کرد.

گروهی از پژوهشگران اروپایی برای اینکه بفهمند آیا ChatGPT قادر به ارزیابی حرفه‌ای پژوهش‌های پزشکی و ارائه توصیه‌های معتبر علمی است یا خیر، مدل هوش مصنوعی را آزمایش کردند تا ببینند که آیا در مقایسه با دستورالعمل ESCMID می‌تواند به ۱۰ پرسش کلیدی درباره تشخیص و درمان آبسه مغزی پاسخ دقیق بدهد یا خیر.

پژوهشگران ابتدا از نسخه چهارمChatGPT (ChatGPT 4) خواستند تا به ۱۰ پرسش مطرح‌شده توسط انجمن میکروبیولوژی بالینی و بیماری‌های عفونی اروپا پیرامون دستورالعمل آبسه مغزی آنها پاسخ دهد. پرسش‌ها بدون هیچ گونه اطلاعات اضافی طراحی و ارزیابی شدند.

سپس، ChatGPT با متن همان مقالات پژوهشی آموزش داده شد که برای توسعه دستورالعمل پیش از پرسیدن سؤالات مورد استفاده قرار گرفته بودند. این کار برای بررسی این موضوع انجام شد که آیا ChatGPT با استفاده از داده‌های مشابه به‌ کار رفته برای توسعه دستورالعمل‌ها می‌تواند توصیه‌های هماهنگ‌تری را ارائه دهد یا خیر.

سپس سه متخصص بیماری‌های عفونی، پاسخ‌های هوش مصنوعی را با توصیه‌های دستورالعمل انجمن میکروبیولوژی بالینی و بیماری‌های عفونی اروپا مقایسه کردند تا مواردی را مانند وضوح، هم‌سویی با دستورالعمل و خطر احتمالی برای بیمار ارزیابی کنند.

این پژوهش در «The Journal of Neurology» ارائه شد.

انتهای پیام

دیگر خبرها

  • دستگیری عاملان ایجاد رعب وحشت در باقرشهر
  • پیگیری لغو مصوبه «افزایش سن بازنشستگی» در مجلس آینده
  • پیگیری لغو مصوبه «افزایش سن بازنشستگی» در مجلس آینده
  • آیزنکوت: اسموتریچ و بن غفیر تهدیدی برای امنیت اسرائیل هستند
  • هشدار سایبری: از USB نامطمئن استفاده نکنید، بدافزار خطرناک PlugX در حال گسترش است
  • اعتراضات دانشجویان طرفدار فلسطین، تهدیدی برای یهودیان نیست
  • تلاش کارگران منجر به ایجاد امنیت اقتصادی می‌شود
  • ChatGPT در تشخیص آبسه مغزی شکست خورد
  • فناوری‌هایی که استاندارد امنیتی ضعیف دارند ممنوع می‌شوند
  • برگزاری میز خدمت پلیس فتا خوزستان در اهواز