چرا الگوریتم TikTok بسیار اعتیاد آور است؟
TikTok از زمان راه اندازی در سال 2016، بیش از 1 میلیارد کاربر در ماه به دست آورده است. کلید موفقیت آن در پیمایش اعتیاد آور و جریان بی پایان ویدیوها نهفته است که ظاهراً دقیقاً شما را هدف گرفته است. برای مدت طولانی، مردم به این فکر میکردند که اپلیکیشن اشتراکگذاری میکرو ویدیو متعلق به ByteDance چه دادههایی را برای کاربرانش جمعآوری میکند تا یاد بگیرند که چگونه این دستگاه محتوا را تقویت کنند. اکنون به درک آن نزدیک می شویم.
روز یکشنبه، یک خبرنگار در نیویورک تایمز یک سند داخلی از تیم مهندسی TikTok در پکن دریافت کرد که توضیح میداد چگونه لایکها، نظرات، زمانهای مشاهده و اشتراکگذاریها در یک الگوریتم ارجاع گنجانده شدهاند، که سپس میزان جذابیت ویدیو را برای کاربر ارزیابی میکند. علاوه بر این، یک اسکرین شات از بار پیشنهاد میشود که تیمی از مدیران محتوا میتوانند ویدیوهایی را که برای دوستان ارسال میکنید یا به صورت خصوصی آپلود میکنید، ببینند، که سطح عمیقتری از سفارشیسازی را پیشنهاد میکند.
این تقسیم ساده الگوریتم "نگاهی آشکار به هسته ریاضی برنامه و درک شرکت از ماهیت انسان - تمایلات ما به ملال، حساسیت ما به نشانه های فرهنگی - ارائه می دهد - که به توضیح اینکه چرا کنار گذاشتن آن بسیار دشوار است." نوشت بار. اما همچنین نشان داد که چگونه الگوریتم می تواند شما را به سوراخ خرگوش با محتوای سمی هدایت کند که "می تواند باعث آسیب به خود شود."
جزئیات جدید بر اساس تحقیقات انجام شده توسط روزنامه وال استریت در اوایل امسال، که از 100 حساب ربات خودکار برای ترسیم انتقال تجربه TikTok افراد از طیف گسترده ای از ویدیوهای محبوب و تولید انبوه به محتوای هدفمندتر و مبتنی بر علاقه استفاده کرد. به عنوان مثال، یک ربات که WSJ در نهایت ویدئوهایی از توطئه های انتخاباتی و QAnon که برای داشتن علاقه مشترک در سیاست برنامه ریزی شده بودند، ارائه شد. سخنگوی TikTok اخراج شد WSJ گزارش، گفت که آزمایش آنها "نماینده رفتار واقعی مصرف کنندگان نیست زیرا افراد دارای مجموعه متنوعی از علایق هستند."
[Related: Why Spotify’s music recommendations always seem so spot on]
طبق سند، بار من دیدهام که معادله ارزیابی ویدیوها بر اساس فعالیت کاربر معمولاً ترکیبی از لایکها، نظرات، پخش و زمان صرف شده در یک ویدیو را در نظر میگیرد. در جایی فرمولی وجود دارد که همچنین محاسبه می کند که سازندگان فردی چقدر برای بینندگان جالب هستند. "سیستم ارجاع همه ویدئوها را بر اساس این معادله ارزیابی می کند و بالاترین عملکرد را به کاربران باز می گرداند." بار گزارش شده است.
مشکل موجودی
هدف نهایی ارائه مجموعهای از محتوایی است که زمان صرف شده توسط کاربران در برنامه را به حداکثر میرساند و باعث میشود آنها دوباره برگردند. اما مهندسان TikTok آگاه هستند که اگر فقط یک نوع ویدیو را برای یک کاربر ارسال کنند، آن شخص خسته می شود و برنامه را ترک می کند. برای حل این مشکل، آنها دو افزوده به الگوریتم پیشنهاد کردند که ویدیوهای بیشتری را نسبت به سازندهای که فکر میکند دوست دارید نشان میدهد و برای ویدیوهایی که برچسبهای یکسانی دارند محدودیت روزانه تعیین کردند. آنها همچنین تنوع بخشیدن به توصیههای بخش «برای شما» را در نظر گرفتند و محتوایی را که ممکن است دوست داشته باشید با چیزی که معمولاً نمیبینید پراکنده کنند.
"ایده اصلی این است که آنها می خواهند کره چشم در صفحه داشته باشند. جاشوا تاکر، یکی از مدیران مرکز رسانههای اجتماعی و سیاستگذاری در دانشگاه نیویورک، میگوید: «شما میخواهید مردم را وادار کنید از محصول شما استفاده کنند.
تاکر گفت: «من فکر میکنم نبوغ TikTok رابطی است که در آن میتوانید به دنبال دنبالکنندگان خود بروید یا میتوانید بگویید TikTok، آنچه را که فکر میکنید دوست دارم ببینم به من نشان دهید.» با انجام این کار، TikTok چیزی را که تاکر «مشکل موجودی» نامید که به پلتفرم هایی مانند فیس بوک و در ابتدا توییتر برخورد کرد، حل کرد. یادگیری ماشینی اکنون به برنامهها اجازه میدهد تا حجم وسیعی از دادهها را پردازش کرده و ترجیحات شخصی را به جای ارائه گزینههای محتوای اولیه به هر کاربر، استنباط کنند. فراتر از ترجیحات شما، پلتفرم ها می خواهند یاد بگیرند که چگونه تعاملات شما بسته به شبکه شما تغییر می کند. به عنوان مثال، آیا محتوایی را تماشا می کنید زیرا دوستان شما آن را تماشا می کنند؟
[Related: Social media really is making us more morally outraged]
فیس بوک محدود است زیرا علاوه بر تبلیغات، فقط پست های دوستان و صفحاتی را که شما دنبال می کنید نمایش می دهد. و برای مدت طولانی، توییتر فقط توییت های کاربرانی را که دنبال می کردید به شما نشان می داد. تاکر گفت: «اگر متوجه جدیدترین چیز در توییتر شوید، این «موضوعات» مشکل موجودی را حل می کند. "این به شما راهی برای بدست آوردن موجودی بیشتر می دهد، به این معنی که آنها می توانند چیزهای بیشتری را امتحان کنند تا آنچه شما می خواهید را ببینند. TikTok این کار را از ابتدا با "For You" انجام داد.
ناظران محتوای انسانی TikTok با محتوای بحثبرانگیز سروکار دارند که برای الگوریتمهای رایانهای دشوار است. آنها میتوانند محتوا را حذف کنند، تماشای یک ویدیو را محدود کنند، و از توصیه یا نمایش ویدیوها، بر اساس سند منقضی شدهای که از خط مشی شبکه. از آنجایی که TikTok به طور فزایندهای سیستمهای بررسی خود را خودکار میکند، سازندگان میتوانند در صورتی که احساس کنند ویدیوهایشان به اشتباه حذف شده است، به ناظران محتوای انسانی مراجعه کنند.
TikTok چقدر شما را می شناسد؟
تاکر پیشنهاد میکند شاید دلیل اینکه TikTok میتواند اینقدر سریع سلیقه شما را درک کند این است که اطلاعات بسیار بیشتری در مورد آنچه ممکن است دوست داشته باشید دارد.
ژوئن گذشته، TikTok یک نمای داخلی کمیاب از الگوریتم پیشنهادی خود ارائه کرد. در یک پست وبلاگ، این شرکت می نویسد که داده های مربوط به تعاملات کاربر (لایک کردن، نظر دادن یا دنبال کردن یک حساب)، اطلاعات ویدیویی (کپشن ها، صداها و هشتگ ها) و تنظیمات حساب (ترجیح زبان، مکان) توسط سیستم وزن می شود. منافع مصرف کننده
[Related: Why YouTube is hiding dislikes on videos]
در حالی که TikTok ادعا میکند از لایکها، نظرات و اشتراکگذاریها به عنوان شاخصهایی برای سنجش میزان تعامل شما با محتوای خاص استفاده میکند. WSJ متوجه شد که مهمترین عنصری که برنامه آنالیز می کند زمان تماشای یک ویدیو است - چه بلافاصله کلیک کنید، چه مکث کرده باشید یا دوباره تماشا کنید. الگوریتم آنچه را که به آن واکنش نشان میدهید میبیند و میتواند به سرعت تعیین کند که «برخی از محتوایی که در برابر آن آسیبپذیر هستید، باعث میشود شما کلیک کنید و تماشا کنید، اما این بدان معنا نیست که واقعاً آن را دوست دارید و این محتواست. گیوم شاسلوت، دانشمند داده، گفت. WSJ پس از بررسی آزمایش آنها. با توجه به اینکه ترافیک کاربران کمتر می شود، احتمال بیشتری وجود دارد که با محتوای مضری روبرو شوند که کمتر توسط ناظران تأیید می شود. WSJ. این موضوع در حال تبدیل شدن به یک نگرانی است زیرا پایگاه کاربران TikTok نسبت به سایر پلتفرمهای رسانههای اجتماعی مانند فیسبوک یا یوتیوب کمتر تغییر میکند.
ادامه بازرسی
از زمانی که فرانسیس هاگن، خبرچین فیس بوک در کنگره شهادت داد که چنین وب سایت هایی که تعهد ایمنی را در اولویت قرار می دهند، ممکن است خطر تشدید اطلاعات نادرست خطرناک را در پی داشته باشند، الگوریتم های توصیه وب سایت مورد بررسی فزاینده ای قرار گرفتند. قانونگذاران با بحث در مورد تغییرات احتمالی نظارتی پاسخ دادند تا پلتفرم هایی که از این الگوریتم ها استفاده می کنند مسئول خساراتی باشند که ممکن است از محتوای توصیه شده ناشی شود.
تاکر هنگام تحقیق در مورد الگوریتمهای ارجاع یوتیوب به این موضوع علاقه دارد که آیا الگوریتم واقعاً شما را به سمت محتوای خاصی هدایت میکند یا اینکه در مورد انتخابهای فردی افراد است. تاکر گفت: «در هر صورت، اگر محتوایی در این پلتفرمها وجود دارد که به تمجید از خودکشی در مقابل کودکان کمک میکند، مهم نیست که چگونه به آن برسید، آن محتوا نباید وجود داشته باشد.
[Related: Congress is coming for big tech—here’s how and why]
TikTok میگوید در حذف محتوایی که خطمشیهایش را نقض میکند (از جمله محتوای آسیبرسانی به خود) هوشیار بوده است. در گذشته، او گفت که از ترکیبی از رایانه ها و افراد برای بررسی محتوای آنها استفاده می کند. اما خطاهایی رخ می دهد و گاهی اوقات ویدیوها به اشتباه برچسب گذاری می شوند یا از فیلترها عبور می کنند.
در ماه سپتامبر، TikTok در یک انتشار خبری گفت که در حال راهاندازی «راهنماهای رفاهی» جدید برای پشتیبانی از کاربرانی است که تجربیات شخصی خود را از طریق پلتفرم به اشتراک میگذارند و نکاتی را برای تعامل مسئولانه ارائه میدهند. او همچنین اعلام کرد که مداخلات جستجو را گسترش خواهد داد تا بتواند منابعی را برای پشتیبانی از بحرانها در زمانی که مصرفکنندگان به دنبال محتوای هشداردهنده هستند، فراهم کند.
تاکر گفت: "این یک چالش واقعی برای این شرکت ها است زیرا آنها بسیار بزرگ هستند." «TikTok خیلی سریع رشد کرده است. و این همان چیزی است که برای فیس بوک اتفاق افتاد: خیلی سریع رشد کرد، بنابراین او از آسیب هایی که برای مثال در زبان های مختلف رخ می دهد آگاه نبود.
[ad_2]