آیا ChatGPT تهدیدی برای امنیت سایبری است؟
تاریخ انتشار: ۱۸ بهمن ۱۴۰۱ | کد خبر: ۳۷۰۴۲۱۹۸
آیا چت ربات ۱۰۰ میلیون کاربر ChatGPT با استفاده از سیستم عامل Ai با توجه به این که میتواند کدهای مخرب و همچنین ایمیلهای فیشینگ ایجاد کند، یک خطر امنیت سایبری را نشان میدهد؟
تحقیقات جدید منتشر شده از بلک بری نشان میدهند که ربات ChatGPT مجهز به هوش مصنوعی میتواند یک تهدید امنیت سایبری باشد.
شیشیر سینگ، مدیر ارشد فناوری امنیت سایبری در بلک بری، گفت: به خوبی مستند شده است افرادی با نیت مخرب در حال آزمایش آن هستند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
سینگ در ادامه گفت: بلک بری انتظار دارد در طول سال ۲۰۲۳ شاهد بهبود هکرها در استفاده از ابزار نوشتن برای مقاصد شوم باشد و سینگ تنها نیست. نظرسنجی کارشناسان فناوری اطلاعات در سراسر آمریکای شمالی، انگلیس و استرالیا ۵۱ مورد را مشاهده کرد. برخی از این کارشناسان معتقدند حمله سایبری مبتنی بر ChatGPT احتمالا قبل از پایان سال رخ میدهد؛ در حالی که ۷۱ ٪ گفتند که فکر میکنند دولت-ملتها احتمالا از قبل از این فناوری علیه سایر کشورها استفاده میکنند.
پایگاه کاربر ChatGPT تنها در دو ماه به ۱۰۰ میلیون رسید
به راحتی میتوان آن درصدهای بالا را به عنوان یک واکنش هذلولی و تند نسبت به چیزی که مسلما یک کاربرد تاثیرگذار است، رد کرد. شما فقط باید به رشد سریع استفاده نگاه کنید که طبق گزارشها سریعترین برنامه مصرف کننده در حال رشد است.
برای درک این موضوع، ChatGPT در دسامبر ۲۰۲۲ تنها برای استفاده عمومی باز شد. تقریبا ۹ ماه طول کشید تا تیک تاک به همان اعداد برسد. به راحتی میتوان فهمید که چرا مردم نگران فرصت سوءاستفاده هستند؛ زیرا ربات Open-AI فقط سرمقاله نمینویسد، بلکه میتواند کد ایجاد کند.
محققان امنیتی با استفاده از ChatGPT بدافزار ایجاد میکنند
در ماه ژانویه، محققان متخصص امنیت سایبری CyberArk، یک وبلاگ تحقیقاتی تهدید منتشر کردند که در آن نحوه ایجاد بدافزار چند شکلی با استفاده از ChatGPT توضیح داده شد. همان طور که ممکن است انتظار داشته باشید، کمی پیچیده میشود؛ اما به طور خلاصه، محققان توانستند فیلترهای خط مشی محتوای ایجاد شده توسط OpenAI را برای جلوگیری از سوءاستفاده از ChatGPT دور بزنند. اگر از ربات هوش مصنوعی بخواهید چند کد مخرب در پایتون ایجاد کند، مودبانه امتناع میکند.
با این حال با فرآیندی که محققان در طول درخواست ورودی آن را «اصرار و تقاضا» نامیدند، امکان ایجاد کد اجرایی وجود داشت. این مشکل ساز است، اما زمانی که آنها به ایجاد کد بدافزار چند شکلی ادامه دادند، بیشتر شد. کد جهش یافته توسط ChatGPT برای ایجاد تکرارهای مختلف برای فریب دادن سیستمهای تشخیص اولیه مبتنی بر امضا.
آیا این یک نگرانی قابل توجه است؟
همان طور که محققان گفتند، زمانی که بدافزار بر روی دستگاه مورد نظر وجود دارد، از کدهای مخربی تشکیل شده است که آن را مستعد شناسایی توسط نرمافزارهای امنیتی میکند. البته خطر این است که ChatGPT نمونهای از یادگیری ماشینی است. هرچه ورودیهای بیشتری دریافت کند، در طول زمان خروجیهای بهتری خواهد داشت. فقط بهتر خواهد شد.
شواهدی از مجرمان سایبری در حال بررسی قابلیتهای ChatGPT
محققان در یکی دیگر از تجهیزات امنیتی، Check Point Re۴search نیز گزارشی را در ژانویه منتشر کردند که در آن بررسی شده بود که چگونه مجرمان سایبری قبلا شروع به استفاده از ChatGPT با اهداف مخرب کردهاند.
محققان گفتند علاوه بر ایجاد یک ایمیل فیشینگ متقاعد کننده، عوامل تهدید کننده را در انجمنهای مجرمانه پیدا کردند که یک کد بدافزار کاملا ابتدایی و مبنی بر سرقت اطلاعات مبتنی بر پایتون را به اشتراک میگذاشتند.
همچنین گزارش شده است که یک اسکریپت جاوا مخرب با استفاده از ChatGPT ایجاد شده است. یکی دیگر از بازیگران تهدید اعتراف کرد که ChatGPT به او «فرصت خوبی» در تکمیل یک ابزار رمزگذار پایتون از نوعی که میتوان برای کار در یک باجافزار توسعه داد، داده است.
محققان گفتند بسیاری از مجرمان سایبری درگیر اصلا هیچ مهارتی در توسعه ندارند، این شاید نگرانکنندهترین جنبه باشد؛ زیرا آخرین چیزی که دنیا به آن نیاز دارد این است که اسکریپتهای مخرب خود را بسازند.
یکی دیگر از ریسکهای مرتبط با مدلهای هوش مصنوعی مانند ChatGPT احتمال استفاده از آنها برای اهداف مخرب است. به عنوان مثال یک مهاجم میتواند یک ربات چت جعلی ایجاد کند که شبیه یک نماینده قانونی خدمات مشتری به نظر میرسد و از آن برای فریب دادن افراد برای دست کشیدن از خدمات مشتری، اطلاعات شخصی یا خریدهای غیرمجاز استفاده کند. اگر مهاجم بتواند ربات چت را به نظر برساند که از یک سازمان قابل اعتماد است، مانند بانک یا سازمان دولتی، این امر میتواند خطرناک باشد.
توانایی مدلهای زبانی مانند ChatGPT برای نوشتن کدهای مخرب موضوع مورد نگرانی بسیاری از سازمانها و افراد است. با پیچیدهتر شدن این مدلها، پتانسیل استفاده از آنها برای اهداف مخرب افزایش مییابد. با این حال، درک این نکته مهم است. خطر مرتبط با نوشتن کدهای مخرب ChatGPT ذاتی خود فناوری نیست، بلکه بستگی به نحوه استفاده از آن دارد.
به عنوان مثال، یک مهاجم میتواند یک مدل زبان را آموزش دهد تا کدی تولید کند که از آسیبپذیریها در برنامههای نرمافزاری سوء استفاده میکند. این میتواند برای انجام حملاتی مانند سرقت داده یا انکار سرویس استفاده شود. مهاجم همچنین میتواند از مدل زبان برای تولید کد استفاده کند که برای فرار از تشخیص توسط ابزارهای امنیتی طراحی شده است و تشخیص و جلوگیری از حمله را دشوارتر میکند.
البته ما نباید تحت تاثیر کل هذلگویی خطرناک هوش مصنوعی پیرامون ChatGPT قرار بگیریم. این ابزاری چشمگیر است که پتانسیل انجام کارهای خوب حتی در زمینه تحقیقات امنیت سایبری را دارد؛ با این حال مانند هر فناوری دیگری، افراد بد از ابزارهای خوب برای انجام کارهای بد استفاده میکنند.
در پایان، توانایی مدلهای زبانی مانند ChatGPT برای نوشتن کدهای مخرب یک نگرانی واقعی است، این یک خطر ذاتی برای خود فناوری نیست، بلکه نتیجه نحوه استفاده از آن است.
منبع: forbes
باشگاه خبرنگاران جوان علمی پزشکی فناوریمنبع: باشگاه خبرنگاران
کلیدواژه: هوش مصنوعی چت جی پی تی چت بات امنیت سایبری استفاده از ChatGPT استفاده از آن امنیت سایبری کد های مخرب هوش مصنوعی مدل ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.yjc.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۰۴۲۱۹۸ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
ChatGPT در تشخیص آبسه مغزی شکست خورد
در پژوهش جدیدی که برای ارزیابی توانایی ChatGPT در تشخیص بیماریها انجام شد، این مدل هوش مصنوعی نتوانست آبسه مغزی را به درستی تشخیص دهد.
به گزارش ایسنا، به رغم این که هوش مصنوعی در حال تبدیل شدن به یک بخش اساسی از پژوهشهای بالینی و تصمیمگیری است، بسیاری از افراد هنوز صحت ChatGPT را برای پشتیبانی از فرآیندهای تشخیصی و درمانی پیچیده زیر سوال میبرند.
به نقل از میراژ نیوز، یک پژوهش جدید که ChatGPT را برای مدیریت کردن «آبسه مغزی»(Brain abscess) به کار گرفته، نشان داده که اگرچه به نظر میرسد ChatGPT قادر به ارائه دادن توصیههایی درباره تشخیص و درمان است اما برخی از پاسخهای این مدل هوش مصنوعی میتوانند بیماران را در معرض خطر قرار دهند.
این پژوهش که در کنگره جهانی «انجمن میکروبیولوژی بالینی و بیماریهای عفونی اروپا»(ESCMID) در شهر بارسلون اسپانیا ارائه شد، توسط اعضای گروه پژوهشی «بیماریهای عفونی مغز»(ESGIB) انجام شده است.
دکتر «سوزان دایکوف شن»(Susanne Dyckhoff-Shen) از بیمارستان «دانشگاه لودویگ ماکسیمیلیان مونیخ»(LMU) در آلمان و یکی از اعضای انجمن میکروبیولوژی بالینی و بیماریهای عفونی اروپا گفت: زمانی که با ایمنی بیمار سر و کار دارید، هر نتیجه کمتر از ۱۰۰ درصد یک شکست است. اگرچه ما از دانش ChatGPT درباره مدیریت آبسههای مغزی شگفتزده شدهایم اما محدودیتهای کلیدی در استفاده از این مدل هوش مصنوعی به عنوان یک دستگاه پزشکی وجود دارد که از جمله آنها میتوان به آسیب احتمالی بیمار و عدم شفافیت دادهها برای ارائه پاسخ اشاره کرد.
توانایی هوش مصنوعی در جذب سریع، پردازش و تفسیر مجموعه دادههای گسترده، چشمانداهای وسوسهانگیزی را نشان میدهد اما این پرسش نیز به وجود میآید که آیا فرآیندهای زمانبر برای ایجاد دستورالعملهای پزشکی هنوز ضروری هستند یا اینکه مدلهای هوش مصنوعی آموزشدیده با انبوهی از اطلاعات پزشکی میتوانند در پاسخ به پرسشهای پیچیده بالینی با کارشناسان بالینی رقابت کنند.
آبسه مغزی یک عفونت تهدیدکننده در سیستم عصبی مرکزی است که برای جلوگیری از عوارض شدید عصبی و حتی مرگ بیمار باید به سرعت شناسایی و درمان شود. مدیریت آبسههای مغزی عمدتا براساس تجربه بالینی و پژوهشهای محدود انجام میشود اما انجمن میکروبیولوژی بالینی و بیماریهای عفونی اروپا در سال ۲۰۲۳، نیاز به یک روش استاندارد را با توسعه یک دستورالعمل بینالمللی برآورده کرد.
گروهی از پژوهشگران اروپایی برای اینکه بفهمند آیا ChatGPT قادر به ارزیابی حرفهای پژوهشهای پزشکی و ارائه توصیههای معتبر علمی است یا خیر، مدل هوش مصنوعی را آزمایش کردند تا ببینند که آیا در مقایسه با دستورالعمل ESCMID میتواند به ۱۰ پرسش کلیدی درباره تشخیص و درمان آبسه مغزی پاسخ دقیق بدهد یا خیر.
پژوهشگران ابتدا از نسخه چهارمChatGPT (ChatGPT 4) خواستند تا به ۱۰ پرسش مطرحشده توسط انجمن میکروبیولوژی بالینی و بیماریهای عفونی اروپا پیرامون دستورالعمل آبسه مغزی آنها پاسخ دهد. پرسشها بدون هیچ گونه اطلاعات اضافی طراحی و ارزیابی شدند.
سپس، ChatGPT با متن همان مقالات پژوهشی آموزش داده شد که برای توسعه دستورالعمل پیش از پرسیدن سؤالات مورد استفاده قرار گرفته بودند. این کار برای بررسی این موضوع انجام شد که آیا ChatGPT با استفاده از دادههای مشابه به کار رفته برای توسعه دستورالعملها میتواند توصیههای هماهنگتری را ارائه دهد یا خیر.
سپس سه متخصص بیماریهای عفونی، پاسخهای هوش مصنوعی را با توصیههای دستورالعمل انجمن میکروبیولوژی بالینی و بیماریهای عفونی اروپا مقایسه کردند تا مواردی را مانند وضوح، همسویی با دستورالعمل و خطر احتمالی برای بیمار ارزیابی کنند.
این پژوهش در «The Journal of Neurology» ارائه شد.
انتهای پیام