خبر ناظران TikTok می گویند که آنها با محتوای سوء استفاده جنسی از کودکان آموزش دیده اند

به گزارش سرویس اخبار تکنولوژی رسانه رادیو فناوری ،

آ فوربس این گزارش سوالاتی را در مورد نحوه رسیدگی تیم تعدیل کننده TikTok به مطالب سوء استفاده جنسی از کودکان – با ادعای دسترسی گسترده و ناامن به عکس ها و فیلم های غیرقانونی ایجاد می کند.

کارمندان یک شرکت نظارتی شخص ثالث به نام Teleperformance که در میان شرکت‌های دیگر با TikTok کار می‌کند، ادعا می‌کنند که از آنها خواسته است صفحه گسترده نگران‌کننده‌ای به نام DRR یا خواندن روزانه مورد نیاز در استانداردهای تعدیل TikTok را بررسی کنند. ظاهراً صفحه‌گسترده حاوی محتوایی بود که دستورالعمل‌های TikTok را نقض می‌کرد، از جمله «صدها تصویر» از کودکانی که برهنه بودند یا مورد آزار قرار می‌گرفتند. کارمندان می‌گویند صدها نفر در TikTok و Teleperformance می‌توانند از داخل و خارج از دفتر به محتوا دسترسی داشته باشند و در را به روی نشت گسترده‌تر باز کنند.

اجرای از راه دور رد شد فوربس که محتوای استثمار جنسی را به کارمندان نشان می‌دهد، و TikTok گفت که مواد آموزشی آن «کنترل‌های دسترسی دقیق دارند و نمونه‌های بصری CSAM را دربر نمی‌گیرند»، اگرچه تأیید نکرد که همه فروشندگان شخص ثالث از این استاندارد پیروی می‌کنند.

کارمندان داستان متفاوتی را بیان می کنند و به عنوان فوربس به نظر می رسد، از نظر قانونی مشکلی است. گردانندگان محتوا به طور معمول مجبور می شوند با CSAM که در بسیاری از پلتفرم های رسانه های اجتماعی پست می شود، مقابله کنند. اما تصاویر کودک آزاری در ایالات متحده غیرقانونی است و باید با دقت مورد بررسی قرار گیرد. شرکت‌ها قرار است محتوا را به مرکز ملی کودکان گمشده و مورد بهره‌کشی (NCMEC) گزارش کنند، سپس آن را به مدت 90 روز حفظ کنند، اما تعداد افرادی که آن را می‌بینند به حداقل برسانند.

اتهامات در اینجا بسیار فراتر از این حد است. آن‌ها نشان می‌دهند که Teleperformance عکس‌ها و ویدیوهای گرافیکی را به عنوان نمونه‌هایی از مواردی که باید در TikTok برچسب‌گذاری کنند، به کارمندان نشان می‌دهد، در حالی که با دسترسی به آن محتوا، بازی سریع و شل انجام می‌دهند. یکی از کارمندان می‌گوید که با FBI تماس گرفت تا بپرسد که آیا این اقدام به منزله انتشار مجرمانه CSAM است، اگرچه مشخص نیست که آیا باز شده است یا خیر.

کامل فوربس این گزارش ارزش خواندن را دارد و وضعیتی را بیان می‌کند که در آن ناظران نتوانستند با رشد انفجاری TikTok همگام شوند و به دلایلی که فکر می‌کنند با هم جمع نمی‌شوند به آنها گفته می‌شود که جنایات علیه کودکان را تماشا کنند. حتی با توجه به استانداردهای پیچیده بحث‌های مربوط به ایمنی کودکان در فضای مجازی، این یک وضعیت عجیب – و اگر دقیق، وحشتناک باشد – است.

این مطلب از رسانه های بین المللی معتبر جمع آوری بطور خودکار شده و رسانه رادیو فناوری نقشی در تهیه و تالیف انها ندارد. رادیو فناوری تابع مقررات و آرمانهای جمهوری اسلامی ایران است بنابراین اگر این مطلب نیاز به حذف و یا ویرایش دارد به ما اطلاع دهید.

منبع

درباره ی rf_admin

مطلب پیشنهادی

خبر اکنون WhatsApp یک برنامه بومی در ویندوز دارد که به صورت مستقل کار می کند

به گزارش سرویس اخبار تکنولوژی رسانه رادیو فناوری ، برنامه جدید واتس اپ در ویندوز …