فناوری‌های چینی متقاعد کننده‌تر می‌شوند

آیا فکر می‌کنید درگیر شدن با یک ابزار فناوری نوظهور می‌تواند باورهای ثابت شما را تغییر دهد؟ یا شما را به سمت تصمیمی سوق می‌دهد که در صورت نبود فناوری آن را اتخاذ نمی‌کردید؟ بسیاری از ما انسان‌ها فکر می‌کنیم برای این کار بیش از حد باهوش هستیم، اما شواهد چیز دیگری را نشان می‌دهد.

به گزارش بلومبرگ، وقتی نوبت به محصول جدیدی از فناوری هوش مصنوعی مولد می‌رسد، قدرت “اقناع” به عنوان یک خطر فاجعه بار در کنار ترس از دستیابی مدل‌ها به استقلال یا کمک به ساخت سلاح هسته‌ای شناسایی شده است. طرح‌ها و مدل‌های با ریسک پایین‌تر که برای تأثیرگذاری بر رفتار تولید شده‌اند، در محصولاتی که بسیاری از ما روزانه استفاده می‌کنیم، وجود دارد و ما را وادار می‌کند تا بی‌وقفه در پلتفرم‌های اجتماعی باشیم یا اسنپ‌چت یا دولینگو را باز کنیم تا کارهای روتین خود را ادامه دهیم.

پیشرفت‌های اخیر در فناوری‌های نوپا در چین نگرانی‌های جدیدی را برای امنیت ملی آمریکا ایجاد کرده است. تحقیقات جدیدی که توسط وزارت امور خارجه ایالات متحده تأمین مالی شده و توسط یک اندیشکده استرالیایی منتشر شده نشان می‌دهد شرکت‌های فناوری چینی در آستانه ایجاد و استقرار فناوری‌هایی با “قابلیت‌های متقاعد کننده بی‌سابقه” هستند.

از منظر امنیتی، پکن یا سایر بازیگران می‌توانند از این موضوع برای تغییر عقاید سیاسی یا ایجاد ناآرامی و تفرقه اجتماعی سوء استفاده کنند. به عبارت دیگر، تاکتیک جنگی که توسط فیلسوف چینی ژنرال سان تزو اعلام شد؛ سلاحی برای تسلیم کردن دشمنان بدون هیچ جنگی است.

گزارش موسسه سیاست استراتژیک استرالیا که به تازگی منتشر شد، بخش تجاری چین را به عنوان “پیشرو جهانی” در توسعه و پذیرش محصولات طراحی شده برای تغییر نگرش‌ها یا رفتارها با بهره برداری از آسیب پذیری‌های فیزیولوژیکی یا شناختی معرفی کرد. برای انجام این کار، این ابزارها به تجزیه و تحلیل داده‌های شخصی که جمع‌آوری می‌کنند و سپس تعامل با کاربران متکی هستند. این مقاله تعداد انگشت شماری از شرکت‌های چینی را شناسایی کرد که در حال حاضر از چنین فناوری‌هایی برای حمایت از تبلیغات و اهداف نظامی پکن استفاده می‌کنند و شامل هوش مصنوعی مولد، واقعیت مجازی، و بخش نوظهورتر فناوری عصبی می‌شود.

اما این یک موضوع جهانی است. بخش خصوصی چین ممکن است برای توسعه روش‌های متقاعدکننده در حال رقابت باشد، اما از روش‌های شرکت‌های بزرگ فناوری ایالات متحده برای درک بهتر کاربران خود و درگیر نگه داشتن آنها پیروی می‌کند. خطرات جدید امنیت ملی و این که چگونه هوش مصنوعی و سایر نوآوری‌های جدید می‌توانند به سرعت اثربخشی این ابزارها را افزایش دهند، باید زنگ خطری باشد.

تقاضا برای شفافیت بیشتر یکی از مسائل ضروری است و باید شرکت‌های فناوری را به ارائه افشای شفاف زمانی که محتوا به‌گونه‌ای طراحی شده که می‌تواند بر رفتارها تأثیر بگذارد، ملزم کرد. گسترش قوانین حفاظت از داده‌ها یا ارائه راه‌های واضح‌تر به کاربران برای انصراف از جمع‌آوری اطلاعاتشان، توانایی این ابزارها را برای هدف قرار دادن کاربران محدود می‌کند.

اولویت دادن به دانش و آموزش دیجیتال همچنین برای افزایش آگاهی در مورد فناوری‌های متقاعد کننده، نحوه عملکرد الگوریتم‌ها و محتوای شخصی سازی شده، نحوه تشخیص تاکتیک‌ها و اجتناب از دستکاری توسط این سیستم‌ها ضروری است.

در نهایت، تحقیقات بسیار بیشتری در مورد چگونگی محافظت از مردم در برابر خطرات فناوری متقاعدکننده مورد نیاز است و عاقلانه است که شرکت‌هایی که در پشت این ابزارها قرار دارند، مسئولیت آن را بر عهده بگیرند، همانطور که شرکت‌هایی مانند OpenAI و Anthropic این کار را با هوش مصنوعی آغاز کرده‌اند. سیاستگذاران همچنین باید از شرکت‌ها بخواهند که یافته‌های خود را با تنظیم‌کننده‌ها و ذینفعان مربوطه، به اشتراک بگذارند تا درک جهانی از نحوه بهره‌برداری از این تکنیک‌ها توسط دشمنان ایجاد کنند. سپس از این اطلاعات می‌توان برای تعیین استانداردها یا مقررات هدفمند استفاده کرد.

خطر این فناوری‌ها به قدری پیچیده است که به پکن اجازه می‌دهد برای تغییر آنچه شما به آن باور دارید، تلاش کند و مخاطرات آن برای سیاستگذاران جهانی بسیار زیاد است. اکنون زمان محاسبه جهانی در مورد میزان اطلاعات شخصی و نقشی که ما در زندگی خود به شرکت‌های فناوری می‌دهیم فرا رسیده است.

منبع: bloomberg

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *