همشهری آنلاین: مقاله پیش‌رو در نیویورک تایمز منشتر شده و به مخاطب می‌گوید که چگونه بی‌آنکه خودش بخواهد مدام در شبکه‌های اجتماعی به ویژه فیس‌بوک و اینستاگرام از خود رد پاهای بزرگ به جای می‌گذارد

social media info

افرادی که نگران حریم شخصی هستند، معمولاً می‌کوشند در فضای مجازی «مراقب» باشند. این افراد سمت شبکه‌های اجتماعی نمی‌روند یا، اگر بروند، محتاطانه مطلب پست می‌کنند. آن‌ها هیچ اطلاعاتی در مورد باورهای دینی، زندگی شخصی، وضعیت سلامت و دیدگاه‌های سیاسی خود به اشتراک نمی‌گذارند و می‌پندارند با این کار از حریم شخصی خود محافظت می‌نمایند.

اما اشتباه می‌کنند. با توجه به پیشرفت‌های تکنولوژیک و حجم عظیم داده‌ای که اکنون در مورد میلیون‌ها فرد دیگر در دسترس است، دیگر احتیاط برای محافظت از حریم شخصی کافی نیست. الگوریتم‌های کامپیوتری و تحلیل شبکه‌ها امروزه می‌تواند با دقتی نسبتاً بالا طیف وسیعی از اطلاعات را در مورد شما استنباط کند که شاید هرگز فاش نکرده باشید، مواردی نظیر حس‌وحال، باورهای سیاسی، گرایش‌ها و وضعیت سلامتتان.

دیگر چیزی تحت عنوان «خروج اختیاری» فرد از دنیایی که در آن حریم شخصی مختل شده است وجود ندارد.

ایدۀ کلی «استنباط داده» (data inference) چیز جدیدی نیست. مدت‌هاست که خرده‌فروشان، سازمان‌های خیریه و سیاست‌مداران لیست‌های مشترکین مطبوعات را می‌خرند چون اطلاعات مفیدی در مورد دیدگاه‌های مردم در اختیارشان می‌گذارد. مثلاً کسی که مشترک وال‌استریت‌ژورنال است احتمال بیشتری دارد حامی جمهوری‌خواهان باشد تا کسی که مشترک نیشن یا موارد مشابه است.

اما تکنولوژیِ امروزی در سطحی بسیار بالاتر عمل می‌کند. به مثالی از فیسبوک دقت کنید. در سال ۲۰۱۷، روزنامۀ آستریلین مقاله‌ای منتشر کرد بر مبنای سندی لورفته از فیسبوک. این سند افشا می‌کند که شرکت فیسبوک به تبلیغ‌کنندگان گفته که می‌تواند پیش‌بینی کند کاربران جوان ازجمله نوجوانان چه زمان احساس «ناامنی» و «بی‌ارزشی» می‌کنند یا چه زمانی نیازمند «تقویت عزت‌نفس» هستند. فیسبوک ظاهراً می‌توانسته با نظارت بر عکس‌ها، پست‌ها و دیگر داده‌های رسانۀ اجتماعی این اطلاعات را استنباط کند.

البته فیسبوک این را انکار کرد که اجازه می‌دهد تبلیغ‌کنندگان بر اساس این خصایص افراد را هدف قرار دهند، اما به احتمال قریب‌به‌یقین توانایی این کار را دارد. اتفاقاً پژوهشگران دانشگاهی هم سال گذشته نشان دادند که می‌توانند با تحلیل داده‌های شبکۀ اجتماعی کاربران فیسبوک افسردگی آن‌ها را پیش‌بینی کنند؛ بماند که آن‌ها نسبت به شرکت فیسبوک به داده‌های خیلی کمتری دسترسی داشتند. حتی اگر فیسبوک امروزه علناً برای این توانایی خود تبلیغ نمی‌کند که می‌تواند اطلاعات مربوط به سلامت ذهنی حال یا آینده‌تان را از روی فعالیتتان در شبکۀ اجتماعی به‌دست آورد، همین که این شرکت (و دیگر کنش‌گران نامرئی‌تر) می‌توانند چنین کنند باید برایتان نگران‌کننده

باید تأکید کرد که استنباط‌های محاسباتیِ امروزی صرفاً به این کفایت نمی‌کنند که کاربران فیسبوک جملاتی مثل «افسرده‌ام» یا «حالم خیلی بد است» را پست کرده باشند. این تکنولوژی بسیار از این حرف‌ها پیچیده‌تر است: حجم عظیمی از داده‌ها برای الگوریتم‌های یادگیری ماشینی فراهم می‌شود و خودِ برنامۀ کامپیوتری می‌تواند دسته‌بندی کند که چه کسی بیشتر در معرض افسردگی است.

به نمونۀ دیگری دقت کنید. در سال ۲۰۱۷، پژوهشگران دانشگاهی با دسترسی به داده‌های بیش از ۴۰هزار عکس اینستاگرامی و با استفاده از ابزار یادگیری ماشینی توانستند نشانه‌های افسردگی را در ۱۶۶ کاربر اینستاگرام به‌طور دقیق شناسایی کنند. مشخص شد که مدل‌های کامپیوتریِ آن‌ها بهتر می‌توانند افسردگی را پیش‌بینی کنند تا انسان‌هایی که از آن‌ها خواسته شده بود عکس‌ها را به‌عنوان شاد، غمگین و ... رتبه‌بندی کنند.

استنباط محاسباتی اگر برای اهداف شرافتمندانه استفاده شود می‌تواند چیز خارق‌العاده‌ای باشد. پیش‌بینی افسردگی قبل از بروز سمپتوم‌های کلینیکی موهبتی برای سلامت عمومی خواهد بود، و به همین خاطر است که دانشگاهی‌ها بر روی این ابزار پژوهش می‌کنند؛ آن‌ها رؤیای تشخیص زودهنگام و پیشگیری را دارند.

اما این ابزارْ نگران‌کننده هم هستند. افرادی که در اینستاگرام عکس پست می‌کنند به‌ندرت خبر دارند که شاید وضعیت سلامت ذهنی‌شان را در اختیار تمام افرادِ مجهز به قدرت محاسباتی کافی قرار داده‌اند.

استنباط محاسباتی همچنین می‌تواند ابزاری برای کنترل اجتماعی باشد. دولت چین با جمع‌آوری داده‌های زیست‌سنجشی شهروندانش سعی می‌کند، به‌کمک کلان‌داده‌ها و هوش مصنوعی، «تهدیدهای» متوجه حکومت کمونیستی‌اش -ازجمله قومیتِ عمدتاً مسلمانِ اویغور در این کشور- را شناسایی نماید.

چنین ابزاری همین‌حالا هم برای استفاده در استخدام کارمند، شناسایی حال‌وهوای خریداران و پیش‌بینی رفتار مجرمانه تبلیغ می‌شوند. اگر این‌ها درست مدیریت نشود، در آیندۀ نزدیک ممکن است استخدام، اخراج، قبولی یا رد بیمه، پذیرش و مردودی دانشگاه، اسکان اجاره‌ای و تمدید یا رد اعتبار همگی بر اساس اطلاعاتی انجام گیرد که از ما استنباط شده است.

حتی وقتی استنباط‌ها درست باشد، باز هم قضیه نگران‌کننده است. اما باتوجه به اینکه استنباط محاسباتی یک تکنیک آماری است، خیلی وقت‌ها اشتباه هم از آن سر می‌زند، و مشخص‌کردن منبع اشتباه کاری دشوار و چه‌بسا غیرممکن است، چون این الگوریتم‌ها هیچ اطلاعاتی از نحوۀ عملکرد خود بروز نمی‌دهند. چه می‌شود وقتی کسی، به‌خاطر استنباطی نامطمئن، از شغلی محروم شود؟

نمونۀ مشکل‌ساز دیگری از استنباط مربوط به شمارۀ تلفن است. شمارۀ تلفنْ روزبه‌روز دارد به شناساگری تبدیل می‌شود که عملکردی شبیه به کد ملی دارد، چون مخصوص خودتان است. حتی اگر سمت فیسبوک و دیگر رسانه‌های اجتماعی نروید، بازهم شمارۀ تلفن شما بی‌شک در فهرست مخاطبین بسیاری از افراد دیگر است. اگر آن‌ها از فیسبوک (یا اینستاگرام یا واتس‌اپ) استفاده می‌کنند، قبلاً از آن‌ها خواسته شده تا اطلاعات مخاطبانشان آپلود شود تا به یافتن «دوستانشان» کمک کند، و بسیاری از افراد این درخواست را تأیید می‌نمایند.

وقتی شمارۀ شما در چند آپلود ظاهر شود، فیسبوک می‌تواند شما را در یک شبکۀ اجتماعی جاگذاری کند و این امر باعث می‌شود بتواند چیزهایی را در مورد شما استنباط کند، چون ما معمولاً شبیه به افراد درون مجموعۀ اجتماعی‌مان هستیم (فیسبوک حتی پروفایل «سایه» هم برای افراد غیرکاربر نگه می‌دارد و پیکسل‌های ردیابی ( Tracking pixel) را به‌کار می‌گیرد که در سرتاسر وب -و نه‌فقط در فیسبوک- قرار دارند. این پیکسل‌ها اطلاعاتی را در مورد رفتارتان به شرکت منتقل می‌کنند).

سال گذشته، تحقیقی به رهبری سناتور ران وایدن، دموکرات اهل اورگن، نشان داد که «ورایزن»، «تی‌موبایل»، «اسپرینت»، و «ای‌تی‌اندتی» موقعیت مکانی زندۀ افراد را می‌فروشند. گزارشی تحقیقی که در سال گذشته در نیویورک‌تایمز منتشر شد و نیز پژوهش جداگانه‌ای از سوی تحلیلگر امنیت، ویل استرافاش، هردو نشان می‌داد که برنامه‌های هواشناسی نظیر «ودر چنل»، «اکیو ودر» و «ودرباگ» داده‌های مربوط به موقعیت مکانی کاربرانشان را می‌فروشند. فایدۀ این‌دست داده‌ها تنها برای ردیابی شما نیست، بلکه چیزهایی را نیز در مورد شما استنباط می‌کنند. در یک کلینیک سرطان چه می‌کردید؟ برای چه ساعت ۵ صبح خانۀ زنی را ترک کردید که همسرتان نیست؟

کشمیر هیل، ژورنالیستِ گروه رسانه‌ای گیزمودو، از مواردی گزارش تهیه کرده که فیسبوک به بیماران یک روانپزشک پیشنهاد داده که «دوست فیسبوکی» بالقوه هستند، یا پیشنهاد کرده افراد با کسی «دوست» شوند که قبلاً همسرشان با او رابطه داشته، یا مثلاً هویت واقعی روسپیان را به مشتریانشان فاش کرده است. ما نمی‌خواهیم شرکت‌ها (یا دولت‌ها) چنین ارتباطاتی را برقرار کنند، چه رسد به اینکه از آن برای «رشد» پلتفرم خود استفاده نمایند.

چاره چیست؟ طراحی گوشی‌ها و ابزارهای دیگری که حفاظت قوی‌تری از حریم شخصی دارند می‌تواند نقطۀ شروع باشد. مقررات دولتی مربوط به جمع‌آوری و جریانِ داده نیز به کندکردن این فرایند کمک می‌کند. اما این راهکار کامل نیست. ما همچنین باید قوانینی وضع کنیم که استفاده از استنباط محاسباتی را مستقیماً مدیریت نماید: چه چیز را اجازه می‌دهیم مورد استنباط قرار گیرد؟ تحت چه شرایطی؟ چه مسئولیتی در قبال آن و افشای آن وجود دارد؟ چه کنترلی بر آن صورت می‌گیرد و مجازات سوءاستفاده از آن چیست؟

تا وقتی پاسخی مناسب به این سؤالات نداریم، می‌توان انتظار داشت دیگران اطلاعات بیشتر و بیشتری در مورد ما به‌دست آورند، حال هرچه‌قدر هم که محتاط باشیم.

  •  این مطلب را زینب توفکچی نوشته است و در تاریخ ۲۱ آوریل ۲۰۱۹ با عنوان «Think You’re Discreet Online Think Again» در وب‌سایت نیویورک‌تایمز منتشر شده است. وب‌سایت ترجمان آن را در تاریخ ۲۳ اردیبهشت ۱۳۹۸ و با عنوان «خیلی مراقبید ردپایی در اینترنت باقی نگذارید؟ بیهوده تلاش نکنید» و ترجمۀ علیرضا شفیعی‌نسب منتشر کرده است.
  •  زینب توفکچی (Zeynep Tufekci) نویسنده و جامعه‌شناسی اهل ترکیه است که در دانشگاه کارولینای شمالی تدریس می‌کند. عمدۀ تحقیقات توفکچی بر تأثیر تکنولوژی‌های جدید بر سیاست و مسئولیت‌های شرکت‌های فناوری در این زمینه متمرکز بوده است. آخرین کتاب او توییتر و گاز اشک‌آور: قدرت و شکنندگی اعتراضات شبکه‌ای‌شده (Twitter and tear gas : the power and fragility of networked protest) نام دارد. 
کد خبر 457641

برچسب‌ها

دیدگاه خوانندگان امروز

پر بیننده‌ترین خبر امروز

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha