TikTokシンガポールのTACセンターとは?
SNSプラットフォームの社会的責任が世界的に問われる中、TikTokは自社の透明性確保に向けた取り組みや、コンテンツ監視の仕組みを外部に公開する「TAC(Transparency and Accountability Center:透明性·説明責任情報公開センター)」を運用している。TikTokがどのように「安心・安全」を定義し、実行しているかの具体的なプロセスを開示・議論する場所として設けられており、アジア太平洋地域ではシンガポールに拠点がある。
今回、シンガポールのTACで責任者を務めるRoy Teo氏と、Trust & Safety部門の梁秀瑛(ヤンスヨン)氏に、TikTokの安心安全に向けた取り組みについて取材してきた。TikTok依存やフィルターバブルといった、プラットフォームが直面するデリケートなテーマも含まれる中、2人は「安心・安全はビジネスの根幹そのものだ」と話す。
未成年者を守り、適切な利用を促すためのルールと仕組み
TikTokの安全対策において、特に優先順位が高いのが「未成年者の保護」だ。13歳からアカウント登録は可能だが、そこには年齢に応じた「段階的なブレーキ」が組み込まれている。
・17歳以下のデフォルト非公開:最初から「世界にさらされる」リスクを抑えるため、17歳以下のアカウントは初期設定でプライベート(非公開)に固定される。
・直接コミュニケーションの遮断:16歳未満はダイレクトメッセージ(DM)機能が無効化され、外部からの接触が制限される。
・配信機能の制限:ライブストリーミングができるのは18歳から。未熟な判断によるトラブルを未然に防ぐ。
なお、アカウント登録時は生年月日入力による年齢確認方法を採用。加えて、AIがユーザーの行動特性から実年齢を推測する仕組みもグローバルにおいて稼働しており、ガイドラインと実態に過度な乖離が生じないようにしている。
さらに、規約違反ではなくても「未成年者がTikTokを視聴するにあたり適切でない」と判断された飲酒・喫煙シーンなどは、18歳未満のフィードには表示されない。
では、そうしたコンテンツの監視・表示のコントロールは、どのように行われているのか? マシン(AI)、人間(モデレーター)、コミュニティ(ユーザー報告)による監視の詳細――TikTokコンテンツ表示の裏側を紐解いていく。
