Sibex سیبکس
گزارش سیبكس؛

تفاوت رفتار انسان و ماشین در جنگ فرضی بین امریکا و چین

تفاوت رفتار انسان و ماشین در جنگ فرضی بین امریکا و چین به گزارش سیبکس، یکی از بحث های داغ اینروزها در رابطه با هوش مصنوعی، تفاوت بین قضاوت ها و تصمیم گیری های انسان و این فناوری محسوب می شود؛ چونکه این دو رویکرد دارای خصوصیت های اساسی و بنیادین متفاوتی هستند.


به گزارش سیبکس به نقل از مهر؛ با پیشرفت روز افزون فناوری هوش مصنوعی، استفاده از این فناوری در تصمیم گیری های پیچیده و حیاتی بیشتر از هر زمان دیگری به کانون توجهات تبدیل گشته است. از کاربردهای این فناوری در زمینه های مختلف میتوان به حوزه های نظامی، اقتصادی، پزشکی، و اجتماعی اشاره نمود که در هر یک از این حوزه ها هوش مصنوعی توانسته است تأثیرات گسترده ای بر فرایند تصمیم گیری و مدیریت به جا بگذارد. این پیشرفت ها، همزمان با افزایش سرعت پردازش و توانایی تحلیل کلان داده ها توسط هوش مصنوعی، فرصت ها و چالش های زیادی را به دنبال داشته است. یکی از بحث های داغ در این عرصه، تفاوت بین قضاوت ها و تصمیم گیری های انسان و هوش مصنوعی است؛ چونکه این دو رویکرد دارای خصوصیت های اساسی و بنیادین متفاوتی هستند. در حالیکه انسان ها در فرآیند تصمیم گیری تحت تاثیر احساسات، تجربه و ملاحظات اخلاقی قرار می گیرند، هوش مصنوعی بر پایه داده ها و الگوریتم های از پیش تعریف شده عمل می کند. مهر این نوشتار کوتاه به بررسی دقیق این تفاوت ها پرداخته و همینطور مزایا و مخاطرات استفاده از هوش مصنوعی در مقایسه با قضاوت های انسانی را مورد ارزیابی قرار می دهد. تفاوت انسان و ماشین در الگوی قضاوت قضاوت های انسانی و مبتنی بر هوش مصنوعی در اساس و روش های تصمیم گیری با یکدیگر تفاوت های قابل توجهی دارند. قضاوت انسانی معمولا بر پایه تجربه، دانش و احساسات صورت می گیرد. انسان ها قادر به درک شرایط پیچیده از جنبه های مختلف هستند و در خیلی از مواقع با در نظر گرفتن عوامل احساسی و فرهنگی، تصمیم گیری می کنند. کارشناسان معتقدند که باآنکه این رویکرد امکان دارد باعث بروز خطاهای انسانی و قضاوت های نادرست شود، اما در عین حال امکان تحلیل مسائل از جنبه های غیرمادی و انسانی را هم فراهم می آورد. در مقابل، هوش مصنوعی از داده ها و الگوریتم های ریاضی برای تحلیل اطلاعات و اتخاذ تصمیم استفاده می نماید. در قضاوت های مبتنی بر هوش مصنوعی، هیچ گونه احساسات، تعصب یا فشارهای روانی دخالت ندارد و تمام تصمیم گیری ها بر مبنای داده های ورودی و الگوهای مشخص صورت می گیرد. بنابراین، این امر می تواند به تصمیم گیری های سریع تر و دقیق تر منجر شود، اما در عین حال امکان دارد این قضاوت ها به علت فقدان درک انسانی و عدم توجه به عوامل فرهنگی یا اخلاقی، خطراتی را به دنبال داشته باشند. در ادامه به مرور کوتاه مزایا و معایب سپردن تصمیمات به ماشین ها در عصر توسعه هوش مصنوعی می پردازیم. مزایای قضاوت هوش مصنوعی سرعت در پردازش اطلاعات: یکی از اصلی ترین مزایای هوش مصنوعی در قضاوت، سرعت بسیار بالای آن در پردازش حجم عظیمی از داده ها است. هوش مصنوعی می تواند در مدت زمان کوتاهی اطلاعات گسترده ای را تحلیل کند و تصمیم گیری هایی بر پایه داده های عینی عرضه نماید. این توانایی در موقعیت های بحرانی و احتیاج به تصمیم گیری سریع، از اهمیت ویژه ای برخوردار می باشد. دقت و عدم تأثیرپذیری از احساسات: قضاوت هوش مصنوعی فاقد احساسات انسانی است؛ امری که می تواند در خیلی از موارد منجر به کاهش خطاهای ناشی از تعصب یا تأثیرات روانی شود. بعنوان مثال، در حالی که انسان ها امکان دارد تحت تاثیر ترس، خشم یا اضطراب تصمیمات نادرست بگیرند، هوش مصنوعی بر مبنای داده ها و الگوریتم های منطقی تصمیم می گیرد. توانایی یادگیری و بهبود: هوش مصنوعی همینطور با استفاده از الگوریتم های یادگیری ماشینی می تواند با تحلیل تصمیمات گذشته، توانایی های خویش را به شکل مرتب بهبود دهد و در آینده تصمیمات بهتری بگیرد. این قابلیت سبب می شود که هوش مصنوعی به مرور زمان در اتخاذ تصمیمات دقیق تر و کارآمدتر بهتر از انسان عمل کند. مخاطرات قضاوت هوش مصنوعی عدم درک احساسات و شرایط انسانی: یکی از بزرگ ترین مخاطرات استفاده از هوش مصنوعی در قضاوت، ناتوانی آن در درک احساسات و شرایط انسانی است. هوش مصنوعی نمی تواند احساسات، ارزش ها و مسائل فرهنگی یا اجتماعی را به صورت کامل درک کند. این خصوصیت می تواند در شرایط حساس منجر به اتخاذ تصمیماتی شود که از نظر انسانی نامناسب یا حتی خطرناک باشند. خطر تشدید بحران ها: در بعضی شرایط، هوش مصنوعی امکان دارد تصمیمات تهاجمی تری نسبت به انسان اتخاذ کند. بعنوان مثال، در تصمیم گیری های نظامی، هوش مصنوعی امکان دارد بدون توجه به عواقب انسانی یا سیاسی یک اقدام، تصمیماتی بگیرد که سبب تشدید بحران ها یا حتی بروز جنگ شود. این در شرایطی است که انسان ها با عنایت به تجربه و در نظر گرفتن جنبه های اخلاقی و انسانی، امکان دارد در این وضعیت تصمیماتی ملایم تر اتخاذ کنند. ریسک خطاهای سیستمی: هرچند که بدون شک هوش مصنوعی از دقت بالایی برخوردار است، اما در اتخاذ تصمیمات حیاتی همچنان خطر بروز خطاهای سیستمی وجود دارد. اشتباهات در طراحی الگوریتم ها یا نقص در داده های ورودی می تواند به تصمیمات نادرست و نتایج جدی ناشی از آن منجر شود. مسئله اعتماد و پاسخگویی: یکی دیگر از چالش های مهم در این حوزه، مساله اعتماد به تصمیمات هوش مصنوعی و تعیین مسئولیت در صورت بروز خطا است. به عبارت دیگر، اگر هوش مصنوعی تصمیمی اشتباه بگیرد، چه کسی مسئول خواهد بود؟ آیا میتوان به سیستم هایی که بدون دخالت انسان تصمیم می گیرند، اعتماد کامل داشت؟ بی گمان پاسخ به این پرسش در شرایط کنونی منفی خواهد بود. تفاوت رفتار انسان و هوش مصنوعی در شبیه سازی بحران نظامی بین آمریکا و چین کارشناسان ابتکار سیاست و استراتژی جهانی مؤسسه مطالعاتی هوور (Hoover Institution)، طی پژوهشی، یک بازی جنگی (Wargame) برای شبیه سازی بحران احتمالی میان ایالات متحده و چین در تنگه تایوان طراحی کردند. این شبیه سازی با هدف مقایسه رفتار و تصمیم گیری انسان ها با هوش مصنوعی در موقعیت های بحرانی و پرتنش صورت گرفت. این مطالعه که با مشارکت ۲۱۴ کارشناس امنیت ملی و استفاده از مدلهای زبان بزرگ انجام شد، توانست تفاوت های عمده ای بین تصمیم گیری های انسان و هوش مصنوعی را آشکار کند. در این شبیه سازی، دو تیم مجزا از انسان ها و هوش مصنوعی وارد یک بحران فرضی بین آمریکا و چین در تنگه تایوان شدند. شرایط بحران شامل تحریکات نظامی چین و حضور نیروی دریایی آمریکا در منطقه بود. هر دو تیم موظف بودند بعنوان اعضای شورای امنیت ملی آمریکا تصمیماتی را اتخاذ کنند که در نهایت باید به رئیس جمهور عرضه می شد. سناریوی این شبیه سازی شامل دو مرحله بود: مرحله اول: در این مرحله، تیم ها باید در رابطه با استفاده یا عدم استفاده از یک سیستم تسلیحاتی مبتنی بر هوش مصنوعی که اخیرا به خدمت گرفته شده بود، تصمیم گیری می کردند. این سیستم می توانست به شکل خودکار به اهداف شلیک کند و امکان کنترل دستی هم برای آن فراهم شده بود. مرحله دوم: بعد از استفاده از این سیستم توسط رئیس جمهور و بروز یک خطا که منجر به تلفات انسانی در نیروهای دریایی چین می شد، تیم ها باید در رابطه با پاسخ آمریکا به این اتفاق تصمیم گیری می کردند. نتایج و تفاوت ها در تصمیمات یکی از یافته های کلیدی این مطالعه، تمایل بیشتر هوش مصنوعی به اقدامات تهاجمی بود. در حالیکه تیم های انسانی با در نظر گرفتن جنبه های سیاسی، اخلاقی و انسانی، معمولا تصمیمات محتاطانه تری اتخاذ می کردند، هوش مصنوعی گرایش بیشتری به استفاده از تسلیحات و تشدید تنش داشتند. به صورت خاص: در مرحله اول: هوش مصنوعی تمایل بیشتری به استفاده از سیستم تسلیحاتی خودکار و آفند داشت، در حالیکه انسان ها بیشتر به انتخابهای دفاعی و شلیک تنها در صورت ضرورت تمایل نشان دادند. در مرحله دوم: هرچند هر دو تیم به دنبال پیشگیری از تشدید تنش بودند، اما تیم های شبیه سازی شده توسط هوش مصنوعی بیشتر به سمت افزایش تولید داخلی تسلیحات و آماده سازی برای اقدامات نظامی پیشگیرانه گرایش داشتند. این مطالعه همینطور نشان داد که هوش مصنوعی نمی تواند تعاملات انسانی و پیچیدگی های اخلاقی را به درستی شبیه سازی کند. بعنوان مثال، در شبیه سازی تیم های انسانی، بحث ها و مذاکرات میان اعضا تاثیر مهمی در تصمیم گیری ها داشت، در حالیکه هوش مصنوعی تمایل داشت نظرات موافق را بشکلی غیرواقعی و بدون اختلاف نظر بیان کند؛ امری که به تصمیماتی هماهنگ اما غیرارگانیک منجر می شد. از همین روی، میتوان اظهار داشت که مطالعه موردی شبیه سازی بحران بین آمریکا و چین هم مؤید آن است که هرچند هوش مصنوعی در شرایط بحرانی می تواند به سرعت و با دقت تصمیمات عملیاتی بگیرد، اما در تحلیل مسائل پیچیده انسانی و اخلاقی گرفتار ضعف شدید می باشد. همچنین، تمایل بیشتر هوش مصنوعی به تصمیمات تهاجمی می تواند در شرایط واقعی منجر به تشدید تنش ها و حتی گسترش درگیری های نظامی شود. متخصصان در جریان این پژوهش نتیجه گرفتند که نتایج به دست آمده، بر اهمیت نظارت و کنترل انسانی بر تصمیمات هوش مصنوعی در موقعیت های حساس تاکید دارد. سخن پایانی در نهایت، میتوان چنین استنباط کرد که قضاوت های هوش مصنوعی و انسان هر یک نقاط قوت و ضعف خاص خویش را دارند و باید با دقت و هوشمندی از هر دو در موقعیت های مناسب استفاده نمود. همانطور که ذکر شد، هوش مصنوعی می تواند با سرعت بالا و بدون تاثیر از عوامل احساسی یا روانی، داده های عظیم را تحلیل کرده و به تصمیم گیری های دقیق برسد. این توانایی بخصوص در موقعیت های نیازمند پردازش سریع و کارآمد اطلاعات، بسیار پرارزش است. از طرفی، انسان ها توانایی منحصربه فردی در درک شرایط پیچیده، توجه به مسائل اخلاقی و اجتماعی و در نظر گرفتن ارزش ها و احساسات انسانی دارند. این خصوصیت ها می تواند در تصمیم گیری هایی که نیازمند ظرافت های انسانی و درک عوامل فرهنگی و اجتماعی هستند، نقش مؤثری ایفا کند. از همین روی، استفاده از هوش مصنوعی به تنهایی در تصمیم گیری های حیاتی و بحرانی می تواند خطرناک باشد، چونکه این فناوری هنوز نمی تواند و شاید هیچگاه هم نتواند همه جنبه های انسانی و احساسی را به درستی درک و پردازش کند. در مقابل، کارشناسان معتقدند که ترکیب توانایی های تحلیلی و سرعت پردازش هوش مصنوعی با تجربه و درک انسانی می تواند بهترین نتایج را به همراه داشته باشد. برای این منظور، باید از هوش مصنوعی بعنوان ابزاری مکمل در کنار انسان ها بهره برد نه بعنوان جایگزینی کامل. همچنین، باید به محدودیت های هوش مصنوعی آگاه بود و از تصمیم گیری های خودکار در موقعیت هایی که مسائل اخلاقی و انسانی در اولویت هستند، جلوگیری کرد. به این ترتیب، میتوان با استفاده از هر دو منبع، فرآیندهای تصمیم گیری را بهینه سازی کرده و ریسک های احتمالی را در شرایط بحرانی و حساس به حداقل رساند.

1403/07/29
09:01:25
5.0 / 5
30
تگهای خبر: آمریكا , توسعه , سیستم , فناوری
این مطلب سیبکس را پسندیدید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۲ بعلاوه ۳
سیبکس - SibeX

سیبكس

فناوری و محصولات اپل

sibex.ir - حقوق مادی و معنوی سایت سیبكس محفوظ است