آیا فکر میکنید درگیر شدن با یک ابزار فناوری نوظهور میتواند باورهای ثابت شما را تغییر دهد؟ یا شما را به سمت تصمیمی سوق میدهد که در صورت نبود فناوری آن را اتخاذ نمیکردید؟ بسیاری از ما انسانها فکر میکنیم برای این کار بیش از حد باهوش هستیم، اما شواهد چیز دیگری را نشان میدهد.
به گزارش بلومبرگ، وقتی نوبت به محصول جدیدی از فناوری هوش مصنوعی مولد میرسد، قدرت “اقناع” به عنوان یک خطر فاجعه بار در کنار ترس از دستیابی مدلها به استقلال یا کمک به ساخت سلاح هستهای شناسایی شده است. طرحها و مدلهای با ریسک پایینتر که برای تأثیرگذاری بر رفتار تولید شدهاند، در محصولاتی که بسیاری از ما روزانه استفاده میکنیم، وجود دارد و ما را وادار میکند تا بیوقفه در پلتفرمهای اجتماعی باشیم یا اسنپچت یا دولینگو را باز کنیم تا کارهای روتین خود را ادامه دهیم.
پیشرفتهای اخیر در فناوریهای نوپا در چین نگرانیهای جدیدی را برای امنیت ملی آمریکا ایجاد کرده است. تحقیقات جدیدی که توسط وزارت امور خارجه ایالات متحده تأمین مالی شده و توسط یک اندیشکده استرالیایی منتشر شده نشان میدهد شرکتهای فناوری چینی در آستانه ایجاد و استقرار فناوریهایی با “قابلیتهای متقاعد کننده بیسابقه” هستند.
از منظر امنیتی، پکن یا سایر بازیگران میتوانند از این موضوع برای تغییر عقاید سیاسی یا ایجاد ناآرامی و تفرقه اجتماعی سوء استفاده کنند. به عبارت دیگر، تاکتیک جنگی که توسط فیلسوف چینی ژنرال سان تزو اعلام شد؛ سلاحی برای تسلیم کردن دشمنان بدون هیچ جنگی است.
گزارش موسسه سیاست استراتژیک استرالیا که به تازگی منتشر شد، بخش تجاری چین را به عنوان “پیشرو جهانی” در توسعه و پذیرش محصولات طراحی شده برای تغییر نگرشها یا رفتارها با بهره برداری از آسیب پذیریهای فیزیولوژیکی یا شناختی معرفی کرد. برای انجام این کار، این ابزارها به تجزیه و تحلیل دادههای شخصی که جمعآوری میکنند و سپس تعامل با کاربران متکی هستند. این مقاله تعداد انگشت شماری از شرکتهای چینی را شناسایی کرد که در حال حاضر از چنین فناوریهایی برای حمایت از تبلیغات و اهداف نظامی پکن استفاده میکنند و شامل هوش مصنوعی مولد، واقعیت مجازی، و بخش نوظهورتر فناوری عصبی میشود.
اما این یک موضوع جهانی است. بخش خصوصی چین ممکن است برای توسعه روشهای متقاعدکننده در حال رقابت باشد، اما از روشهای شرکتهای بزرگ فناوری ایالات متحده برای درک بهتر کاربران خود و درگیر نگه داشتن آنها پیروی میکند. خطرات جدید امنیت ملی و این که چگونه هوش مصنوعی و سایر نوآوریهای جدید میتوانند به سرعت اثربخشی این ابزارها را افزایش دهند، باید زنگ خطری باشد.
تقاضا برای شفافیت بیشتر یکی از مسائل ضروری است و باید شرکتهای فناوری را به ارائه افشای شفاف زمانی که محتوا بهگونهای طراحی شده که میتواند بر رفتارها تأثیر بگذارد، ملزم کرد. گسترش قوانین حفاظت از دادهها یا ارائه راههای واضحتر به کاربران برای انصراف از جمعآوری اطلاعاتشان، توانایی این ابزارها را برای هدف قرار دادن کاربران محدود میکند.
اولویت دادن به دانش و آموزش دیجیتال همچنین برای افزایش آگاهی در مورد فناوریهای متقاعد کننده، نحوه عملکرد الگوریتمها و محتوای شخصی سازی شده، نحوه تشخیص تاکتیکها و اجتناب از دستکاری توسط این سیستمها ضروری است.
در نهایت، تحقیقات بسیار بیشتری در مورد چگونگی محافظت از مردم در برابر خطرات فناوری متقاعدکننده مورد نیاز است و عاقلانه است که شرکتهایی که در پشت این ابزارها قرار دارند، مسئولیت آن را بر عهده بگیرند، همانطور که شرکتهایی مانند OpenAI و Anthropic این کار را با هوش مصنوعی آغاز کردهاند. سیاستگذاران همچنین باید از شرکتها بخواهند که یافتههای خود را با تنظیمکنندهها و ذینفعان مربوطه، به اشتراک بگذارند تا درک جهانی از نحوه بهرهبرداری از این تکنیکها توسط دشمنان ایجاد کنند. سپس از این اطلاعات میتوان برای تعیین استانداردها یا مقررات هدفمند استفاده کرد.
خطر این فناوریها به قدری پیچیده است که به پکن اجازه میدهد برای تغییر آنچه شما به آن باور دارید، تلاش کند و مخاطرات آن برای سیاستگذاران جهانی بسیار زیاد است. اکنون زمان محاسبه جهانی در مورد میزان اطلاعات شخصی و نقشی که ما در زندگی خود به شرکتهای فناوری میدهیم فرا رسیده است.
منبع: bloomberg