تعداد نشریات | 36 |
تعداد شمارهها | 1,215 |
تعداد مقالات | 8,803 |
تعداد مشاهده مقاله | 7,395,520 |
تعداد دریافت فایل اصل مقاله | 4,334,050 |
توسل دولتها به هوش مصنوعی جهت تأمین امنیت ملی و مواجهه با تهدیدات حقوق بشری | ||
دولت پژوهی ایران معاصر | ||
دوره 10، شماره 1، خرداد 1403، صفحه 39-65 اصل مقاله (1.35 M) | ||
نوع مقاله: سیاست گذاری و حکمرانی سیاسی | ||
نویسندگان | ||
پژمان الهامی طالشمیکائیل* 1؛ امیر کردکریمی2؛ حسام اوروجی3 | ||
1گروه حقوق وعلوم سیاسی ،دانشگاه ازاداسلامی مدرس دانشگاه | ||
2دکتری تخصصی علوم سیاسی (اندیشه سیاسی) ، محل اخذ مدرک: دانشگاه آزاد اسلامی واحد تبریز | ||
3(کارشناسی ارشد) علوم سیاسی دانشگاه تبریز | ||
تاریخ دریافت: 22 اسفند 1402، تاریخ بازنگری: 18 اردیبهشت 1403، تاریخ پذیرش: 01 خرداد 1403 | ||
چکیده | ||
بسیاری از دولتها از هوش مصنوعی و فناوری مرتبط با آن برای حفظ امنیت ملی بهره میگیرند. این دولتها بهره گیری از هوش مصنوعی در راستای تأمین امنیت ملی را با این استدلال که «فناوری و ماشینها بیطرف هستند» توجیه میکنند. در این پژوهش با هدف «بررسی توسل دولت ها به هوش مصنوعی برای تأمین امنیت ملی و تهدید بنیادی ترین حقوق بشر»؛ این پرسش مطرح شد که «چگونه توسل دولتها به هوش مصنوعی برای تأمین اهداف امنیت ملی، بنیادی ترین حقوق بشر را تهدید میکند؟» که با توجه به پژوهش میتوان نتیجه گرفت: فناوری در هوش مصنوعی میتواند حاوی اطلاعات مغرضانه، سوگیریها و خطاها باشد که این مساله منجر به ایجاد نتایج مثبت کاذب و منفی کاذب میشود. هنگامی که این فناوری برای اهداف امنیت ملی توسعه مییابد، برخی از موارد مرتبط با حقوق بشر شهروندان به خطر می افتد. در واقع فناوری و تکنولوژی نمیتواند بیطرف باشد که چرا سوگیری و خطاهای ذاتی، بخش جدانشدنی از آن میباشند و این مساله به صورت جدی حقوق اساسی مردم از جمله حفظ حریم خصوصی، حق محاکمه عادلانه، حق آزادی عقیده و حتی حق حیات را به بهانه ی حمایت از امنیت ملی تهدید میکند. در این پژوهش به روش توصیفی- تحلیلی و بهرهگیری از روش فیش برداری سعی در بررسی حقوقی شده است که با بهرهگیری دولتها از هوش مصنوعی برای اهداف امنیت ملی، در معرض خطر قرار گرفته اند | ||
کلیدواژهها | ||
هوش مصنوعی؛ امنیت ملی؛ نظارت؛ حق حریم خصوصی؛ آزادی بیان؛ دولت | ||
عنوان مقاله [English] | ||
Governments resort to artificial intelligence for national security and threaten human rights | ||
نویسندگان [English] | ||
pezhman elhami taleshmikaeil1؛ amir kord karimie2؛ hessam urujii3 | ||
1گروه حقوق وعلوم سیاسی ،دانشگاه ازاداسلامی مدرس دانشگاه | ||
2دکتری تخصصی علوم سیاسی (اندیشه سیاسی) ، محل اخذ مدرک: دانشگاه آزاد اسلامی واحد تبریز | ||
3(کارشناسی ارشد) علوم سیاسی دانشگاه تبریز | ||
چکیده [English] | ||
Many governments use artificial intelligence and related technology to maintain national security. These governments justify the use of artificial intelligence in order to provide national security with the argument that "technology and machines are neutral". In this research, with the aim of "investigating governments' recourse to artificial intelligence to ensure national security and threaten the most fundamental human rights"; The question was raised that "how does the government's use of artificial intelligence to secure national security goals threaten the most fundamental human rights?" According to the research, it can be concluded: artificial intelligence technology can contain biased information, biases and errors, which leads to false positive and false negative results. When this technology is developed for national security purposes, some issues related to the human rights of citizens are compromised. In fact, technology cannot be neutral, because bias and inherent errors are an inseparable part of it, and this issue seriously undermines people's fundamental rights, including the protection of privacy, the right to a fair trial, the right to freedom of opinion, and even the right to life. It threatens the support of national security. In this research, using the descriptive-analytical method and using the phishing method, an attempt has been made to examine the rights that have been put at risk by the use of artificial intelligence by governments for national security purposes | ||
کلیدواژهها [English] | ||
Artificial intelligence, national security, surveillance, right to privacy, freedom of speech, government | ||
مراجع | ||
| ||
آمار تعداد مشاهده مقاله: 1,264 تعداد دریافت فایل اصل مقاله: 139 |