به گزارش سرویس اخبار تکنولوژی رسانه رادیو فناوری ،
آ فوربس این گزارش سوالاتی را در مورد نحوه رسیدگی تیم تعدیل کننده TikTok به مطالب سوء استفاده جنسی از کودکان – با ادعای دسترسی گسترده و ناامن به عکس ها و فیلم های غیرقانونی ایجاد می کند.
کارمندان یک شرکت نظارتی شخص ثالث به نام Teleperformance که در میان شرکتهای دیگر با TikTok کار میکند، ادعا میکنند که از آنها خواسته است صفحه گسترده نگرانکنندهای به نام DRR یا خواندن روزانه مورد نیاز در استانداردهای تعدیل TikTok را بررسی کنند. ظاهراً صفحهگسترده حاوی محتوایی بود که دستورالعملهای TikTok را نقض میکرد، از جمله «صدها تصویر» از کودکانی که برهنه بودند یا مورد آزار قرار میگرفتند. کارمندان میگویند صدها نفر در TikTok و Teleperformance میتوانند از داخل و خارج از دفتر به محتوا دسترسی داشته باشند و در را به روی نشت گستردهتر باز کنند.
اجرای از راه دور رد شد فوربس که محتوای استثمار جنسی را به کارمندان نشان میدهد، و TikTok گفت که مواد آموزشی آن «کنترلهای دسترسی دقیق دارند و نمونههای بصری CSAM را دربر نمیگیرند»، اگرچه تأیید نکرد که همه فروشندگان شخص ثالث از این استاندارد پیروی میکنند.
کارمندان داستان متفاوتی را بیان می کنند و به عنوان فوربس به نظر می رسد، از نظر قانونی مشکلی است. گردانندگان محتوا به طور معمول مجبور می شوند با CSAM که در بسیاری از پلتفرم های رسانه های اجتماعی پست می شود، مقابله کنند. اما تصاویر کودک آزاری در ایالات متحده غیرقانونی است و باید با دقت مورد بررسی قرار گیرد. شرکتها قرار است محتوا را به مرکز ملی کودکان گمشده و مورد بهرهکشی (NCMEC) گزارش کنند، سپس آن را به مدت 90 روز حفظ کنند، اما تعداد افرادی که آن را میبینند به حداقل برسانند.
اتهامات در اینجا بسیار فراتر از این حد است. آنها نشان میدهند که Teleperformance عکسها و ویدیوهای گرافیکی را به عنوان نمونههایی از مواردی که باید در TikTok برچسبگذاری کنند، به کارمندان نشان میدهد، در حالی که با دسترسی به آن محتوا، بازی سریع و شل انجام میدهند. یکی از کارمندان میگوید که با FBI تماس گرفت تا بپرسد که آیا این اقدام به منزله انتشار مجرمانه CSAM است، اگرچه مشخص نیست که آیا باز شده است یا خیر.
کامل فوربس این گزارش ارزش خواندن را دارد و وضعیتی را بیان میکند که در آن ناظران نتوانستند با رشد انفجاری TikTok همگام شوند و به دلایلی که فکر میکنند با هم جمع نمیشوند به آنها گفته میشود که جنایات علیه کودکان را تماشا کنند. حتی با توجه به استانداردهای پیچیده بحثهای مربوط به ایمنی کودکان در فضای مجازی، این یک وضعیت عجیب – و اگر دقیق، وحشتناک باشد – است.
این مطلب از رسانه های بین المللی معتبر جمع آوری بطور خودکار شده و رسانه رادیو فناوری نقشی در تهیه و تالیف انها ندارد. رادیو فناوری تابع مقررات و آرمانهای جمهوری اسلامی ایران است بنابراین اگر این مطلب نیاز به حذف و یا ویرایش دارد به ما اطلاع دهید.