
小規模なチームやテクノロジーの新興企業にとって、クラウドサービスは、ビジネスプロセスを確立し、妥当な時間内に製品を市場に投入する唯一の機会です。 Google、Microsoft、Amazon、Yandexなどの主要なプレーヤーは、幅広い製品を誰にでも提供しています。 また、企業のメールの信頼性について質問がない場合は、機械学習サービスに注意する必要があります。
特に、オブジェクトを区別するために機械を教えようとしているとき、知識のある人でもその違いを常に明確に説明できるとは限りません。 大企業の標準ソリューションの基礎となるアルゴリズムはどの程度正確ですか?
1964年、米国最高裁判所のメンバーは次のように宣言しました。
この簡単な説明に該当する素材をより正確に判断しようとはしません[「ハードポルノ」]。 おそらく、これを明確な定義にすることはできないでしょう。 しかし、私が見るとわかります。
わが国の国家機関は定期的に、特にポルノ、そして一般的なエロチカとの積極的な闘争の状態に陥ります。 この闘争の目標、内容、見通しについては説明しません。 しかし、質問に答えるために-nsfwであるかnsfwではないことに注意してください。 -非常に複雑です。
控えめなsmmframe.comチームは 、Dobra CorporationのApi信頼性の問題に長い間関心を寄せており、一度、いくつかのテクノロジーをテストするために、エロティックで擬似エロティックな画像の認識の例を使用して、Google Cloud Visionのパフォーマンスの品質をテストすることにしました。
技術的な実装または「裸の女の子の写真をダウンロード」
最初の質問は、データセットの入手先です。 次の3つの要件を満たすデータセットが必要です。
- すべての写真を1つの特定のタグに一致させる(クイックスタート用)
- このタグのニュートラル写真の可用性
- このタグに中立から遠く離れた写真の存在
- 率直なポルノとヌードをお勧めします
スポーツではない
私たちの選択はTumblrにかかっていました-タグガールと便利なAPIによる適切な写真がたくさん。 もちろん、セクシーな女の子を検索する方が良いでしょうが、トグルスイッチはnsfwタグの発行を厳しく制限します。
サービス自体の品質を評価するためのデータの収集は簡単です。 Google Cloud Visionサービスに登録されており、明示的コンテンツ検出のラインで価格設定を検討しています。 タンブラーからのapiを扱います。
ドキュメントを読み、cron経由で写真をダウンロードしてすぐにGoogleに転送するスクリプトを作成します。 サービスの応答を取得します。これは、写真が1〜5のスケールでエロチカを持っている可能性の推定値です。サービスの応答を解析し、将来のためにファイルに保存します。
最も長くて退屈な段階が残っています-データセット内のすべての写真に1〜5の評価を手動で付けること。 画像を見やすくするために、サイトを作成しました: labs.smmframe.com 。 すべての写真を見るために志願した勇敢な男は、2つのポイントを指摘しました:写真の多くの繰り返しとエマワトソンの多く
ストレンジオアフィールミロノフ
Vision APIの結果には十分な奇妙な点があります。 私たちはすぐに注意します-サービスは明らかな境界の場合に非常にうまく機能します。
安全:

安全でない:( ここにある画像自体へのリンク。)それまでは、ただの猫。

ほとんど安全ではない:

私たちが選んだ女の子タグは、マニキュアセット、花、または女性のハンドバッグに生息する典型的なオブジェクトの画像によく出会うことに注意してください。 これはすべて非常に低いと分類され、正しいです。 裸の女の子は可能性が高いと検出されます-これも事実です。
絶対に安全なコンテンツの率直な不正確な評価はありますか? もちろん! しかし、これらのケースを明確に説明することは困難です。
下着の女の子と一緒に働くことの難しさ、または許可されている細い線
振り返ってみると、記事の外観の前提条件は、1つのクラブで誤ってモニターに当たったこの画像でした。 すぐに言ってみましょう-2人のかわいい若い女性がGoogleとの悪い関係を引き起こしません。

そして、これは少なくとも奇妙です。他の3つのはるかにまともなコンテンツの写真はNSFWに近いと評価されたためです。

左から右:ありそうにない、可能性が高い、可能性が高い
これは、ありそうにない服を着た女の子と一緒に写真を置いたときの非常に奇妙な結果です。

明示的コンテンツとは何ですか?
たとえば、角のある切断された頭のかわいい写真と首のかなり確実にトレースされた解剖学。

問題はすぐに発生します-なぜ タグ付きの女の子 フィルターが見逃した? 辞書に目を向けると、明示的コンテンツの概念は性的性質のわいせつなものに限定されず、顕著な攻撃性、汚い言葉、悪い習慣のプロパガンダ、血、切断などを含み、特に印象的な人々に注意を払うべきではないことがわかります。
この場合のGoogle Cloud Visionは、子どもに写真を見せてはならないため、正しいと判明したよりもむしろ間違っていたことがわかります。
GIF
ここにもっと興味深い例があります-虹色のGIF、猫、裸の胸。 gifファイルの分析方法は正確にはわかりませんが、この画像がわいせつであるという評価は明らかです。 おそらく標準的な肌の色や異型の角度からはほど遠いため、写真はフィルターを欺くことができました-非常に低い評価。
おもしろいことに、動いているように見える一見まともな意図のあるものは、辛seemに見えるかもしれません。 gif(下のピーク)のフレームとGIF自体を比較する

拡張現実の難しさ
写真について議論しているので、そのような例を見てみましょう。 同じよく知られているアプリケーションで取得した2つの画像。 最初のもののみが安全と見なされ、2番目のものは可能性が高いと見なされます。

NSFWによって認識された貧しい人。

女の子はただ楽しんでいます。
なぜそのように推測するのが難しいのか、Cloud Vision Apiには、人々の表情や姿勢の比較的小さな変化で分類を変更するという不健康な習慣があります。
以下に例を示します。

左-ありそうもない、右-ありそう

左-ありそうもない、右-ありそう。 左の画像に焦点が合っていないバージョンがあります。

左-ありそうもない、右-ありそう。

左側-非常にありそうもない、右側-ありそうもない。
5点またはなぜ卒業が必要ですか?
私たちが過失を見つけているように思われるかもしれません。 実際、水着の女の子とスポーツブラを区別することは常に可能とは限りません。 さらに、味は議論されていません。 したがって、たとえGoogleが一見わずかに異なる写真で奇妙に振る舞ったとしても、それがクールな場所を示しましょう。 タイツとタイツ 。 すべてが完全に正しいです。それは、行われた作業と、画像内のそのような小さな領域を占める詳細に気付く能力に驚嘆することだけです。
データセットの最初の数百枚の写真の後、1から5までのポイントを配置せず、nsfwグラデーションではなくnsfwグラデーションに移動することにしました。 スコアをGoogleスコアと比較した結果を以下の表に示します。 13,000枚の写真のうち、重複を削除した後、11,246枚がそれらを受け取りました。
評価タイプ | 写真の数 | NSFWとしてマーク | 共有する |
---|
VERY_LIKELY | 116 | 62 | 0.53445 |
いいね | 176 | 47 | 0.26705 |
可能 | 503 | 44 | 0.08748 |
珍しい | 3709 | 112 | 0.03020 |
VERY_UNLIKELY | 6690 | 50 | 0.00747 |
エラー | 52 | 2 | 0.03846 |
まとめ
分類子の作業結果には、常に偽陽性と偽陰性の両方のケースがあります。 最初は、特定のハッシュタグに対するInstagramからの画像の発行を分析する際に、まともな環境でおそらく下品な性質の画像を検索するタスクに直面していました。 これは、お客様の施設を、率直に言って見苦しい場面で画面に表示されないようにするためです。 一般に、APIをYES / NOレベルで使用すると、APIはそのタスクに対処します。 NSFWコンテンツの検索には、より細かいグラデーションが適しています。また、多くの場合、誤検出の結果はスキップするよりも適切にフィルタリングされます-神は安全な人を救います。
そして、記事の冒頭で挙げた質問に答えると、Dobra Corporationは素晴らしい仕事をしました。 偽陽性と偽陰性の結果に特別な注意を払う必要がある小さなクラスの問題は、追加のチェックを追加することで比較的簡単に解決できます。たとえば、画像内の開いた肌の領域を評価します。
私たちについて少し:
Smmframe.comは、特定のハッシュタグを使用して、写真からのブロードキャストを整理できるサービスです。 当社のサービスの助けを借りて、エンターテインメント会場はソーシャルネットワーク上で自分自身を宣伝することができます。 将来の訪問者を確実にキャッチする最も興味深い写真を見つけることができるいくつかの高度なアルゴリズムを開発しました。