زاکربرگ: فیسبوک آینده بهتری برای جهان میسازد
مارک زاکربرگ موسس شبکه اجتماعی فیسبوک متنی ۶۵۰۰ کلمه ای در نقد و بررسی فیسبوک و روند جهانی شدن نوشته است. و در آن به چالشهای جهان و قابلیتهای فیسبوک در پرداختن به آن اشاره کرده است.
به گزارش افق ٬آقای زاکربرگ در این بیانیه خود به موضوعاتی همچون تغییرات آب و هوا٬ تروریسم و نابرابری ها پرداخته و گفته است زاکربرگ برنامه عظیمی برای ساختن آنچه که آن را «آینده بهتر» نامیده است دارد.
مارک زاکربرگ در این نوشته خود آورده است که فیسبوک به مردم قدرت به اشتراک گذاشتن موضوعات مختلف را بدهد و جهان را بیشتر به هم نزدیک و متصل کند.
او میگوید انسانها باید با هم متحد شوند، نه به عنوان مردمان یک شهر یا یک ملیت، بلکه به عنوان اعضای جامعه جهانی.
زاکربرگ نوشته: «فیسبوک میخواهد ما را به هم نزدیکتر کند و یک جامعه جهانی بسازد. وقتی ما این کار را شروع کردیم، این فکر چندان جنجالی نبود. اما اکنون در سراسر جهان مردمانی هستند که جهانی شدن عامل فراموش شدن آنها شده و جنبشهایی وجود دارند که از روند جهانی شدن جا ماندهاند.»
دربخش از این نامه امده است : «پس از یک دهه تلاش برای ایجاد اتصال میان افراد، فیسبوک حالا میخواهد تمرکز خود را بر توسعه زیرساختهای جامعه برای حمایت از انسان، امنیت او، اطلاع رسانی به او، مدیریت مدنی و شمولیت همگان بگذارد.»
زاکربرگ در نوشته خود موفقیتهای فیسبوک را در هر پنج زمینه مطرح کرده و نوشته چه کارهای دیگری باید انجام شود.
برای ایجاد جوامع حمایتگر، زاکربرگ بر کاهش قابل توجه اهمیت زیرساختهای جوامع محلی اشاره میکند که میتوانند به شکل گروههای معنادار فیس بوکی درآیند، گروههایی که مردم میتوانند به آنها بپیوندند و هر فعالیتی را به صورت آنلاین یا آفلاین انجام دهند؛ مثلا ایجاد گروههای ویژه پدر و مادرها.
در مورد مساله امنیت، زاکربرگ درباره استفاده از سیستمهای هشداری حرف میزند که میتواند کودکان ربوده شده را نجات دهد. اقداماتی نظیر امکان اعلام در امنیت بودن که کاربران میتوانند به نزدیکان و وابستگانشان اعلام کنند که به عنوان مثال هنگام یک حمله یا بلای طبیعی در امنیت هستند.
در عین حال اما این مساله هم وجود دارد که از شبکههای اجتماعی برای نمایش زنده خودکشی یا شکنجه و آزار استفاده میشود.
زاکربرگ میگوید در آینده فیسبوک قادر خواهد بود از هوش مصنوعی برای تشخیص چنین محتواهایی استفاده کند و پیش از آنکه کابران دیگر این موارد را گزارش کنند، به مجریان این نوع فعالیتها هشدار دهد.
زاکربرگ نوشته: «در حال حاضر ما در حال آزمودن راههایی هستیم تا از هوش مصنوعی برای تشخیص تفاوت گزارشهای منتشر شده درباره تروریسم و تبلیغات تروریسم استفاده کنیم. سپس خواهیم توانست به سرعت، هر کسی را که میکوشد برای فعالیتهای تروریستی افرادی را استخدام کند یا کاری برای آنها انجام دهد، شناسایی کنیم.»
او ۱۰۰۰ کلمه هم درباره انتشار اطلاعات در فیسبوک و اخبار جعلی و تیترهای کلیک جذبکن نوشته است که همه آنها با الگوریتمهای فیسبوک تبدیل به ابزارهایی برای اقزایش چندقطبیشدگی شدهاند.
او گفته: «اگر این روش ادامه پیدا کند و ما دریافت مشترک خود را از دست بدهیم، آنگاه حتی اگر تمام اطلاعات غلط را حذف کنیم، مردم از روشهای دیگری برای بیان اعتقادات متفاوت خود استفاده خواهند کرد. به همین دلیل من درباره پیروی از عواطف و احساسات در رسانه بسیار نگرانم.»
فیسبوک برای جلوگیری از پیروی مردم از عواطف واحساسات، کنترل خواهد کرد که آیا افراد پیش از بازنشر یک مقاله آن را میخوانند یا نه اگر چنین باشد آن مقالات در فید مورد توجه بیشتری قرار خواهد گرفت.
زاکربرگ گفته بر حمایت از «صنعت خبر» که از سوی فیس بوک و گوگل در معرض تهدید است تاکید میکند تا از استمرار خبررسانی و تحلیل اطلاعات اطمینان یابد.
در بخشی به عنوان «جامعه درگیر مسایل مدنی»، زاکربرگ درباره اینکه چطور باید افراد بیشتری را در روند فعالیتهای مدنی و تصمیمسازی درگیر کرد، سخن میگوید.
او میگوید فیس بوک در حال ایجاد ابزارهایی است که به وسیله آنها مردم بتوانند رای بدهند، با مقامات محلی در ارتباط باشند و تظاهرات طراحی کنند. مثل کاری که در مورد «تظاهرات زنان علیه ترامپ» رخ داد و از فیس بوک شروع شد.
به گزارش رادیو زمانه ٬در بخش آخراین نامه به استانداردهای جامعه فیسبوک پرداخته شده که سختگیرانه است و ظرایف فرهنگی سیاسی را در نظر نمیگیرد. به همین دلیل در فیسبوک اشتباهات زیادی در سانسور عکسهای ویتنام روی داده و در انتشار فیلمهای مربوط به جنبش «زندگی سیاهان اهمیت دارد»، دچار بیتوجهی و خطا شده است.
زاکربرگ میگوید: «این اشتباهات نه به خاطر مخالفت سیاسی ما با این رویدادها که به خاطر اشکالات اجرایی بوده است.»
فیسبوک میگوید که میخواهد استانداردهای خود را بالا ببرد به نحوی که شخصیتر و محلی و منطقهایتر شود؛ مثلا اروپاییها نسبت به آمریکاییها و برخی از جوامع خاورمیانهای نسبت به «برهنگی» پذیرنده ترند و این مساله باید در نظر گرفته شود.
زاکربرگ مینویسد: «کار کردن روی آنچه که مردم در مکانهای مختلف با آن راحتترند، به معنای ترکیب میزان زیادی روند دموکراتیک و تعیین دقیق استانداردهاست که با استفاده از هوش مصنوعی اجرایی میشود.»
این به آن معناست که افراد میتوانند میزان پذیرش خود را نسبت به «خشونت»، «برهنگی» و «ناسزا» تعیین کنند و شبکههای اجتماعی به این ترتیب باخواستههای آنها هماهنگ خواهند شد.
او نوشته: «پیشرفت زیادی در هوش مصنوعی برای درک متنها، عکسها و ویدئوها و قضاوت درباره اینکه آیا در آنها زبان نفرت یا ناسزا وجود دارد یا نه لازم است. اما برخی از این امکانات در سال ۲۰۱۷ به وجود خواهد آمد.»