変なニュース

痛いニュースと芸能や面白ネタ満載の変なニュース

カテゴリ:暇つぶし

児童ポルノなど不適切画像をAIポリスが検出!担当者をPTSDやトラウマから救う

2017/12/20

LINEで送る
Pocket

インターネット上に児童ポルノなど不適切な画像が出回っていないかをチェックする役目はこれまで人間が行ってきましたが、1日何時間も殺人や児童ポルノの画像を見ることは担当者に精神的な負担を課します。

Microsoftではオンライン安全担当者がPTSDになったとして会社を訴える事態に発展しました。

上記のような問題はMicrosoftだけにとどまらずGoogleやイギリスの首都警察においても同じでした。

イギリスの警察では犯罪の証拠としての写真をチェックする必要があり、専用のソフトウェアが利用されてきましたが、状況に応じて画像に等級をつけていくような細かい作業は人間が行っています。

たとえば首都警察が使用しているソフトウェアは押収したデバイスから薬物・銃・金銭・ヌードといった画像を検出するものです。

ですが、精度にまだ問題があり、スクリーンセーバーとして利用されているような砂漠の画像を「ヌード」として検出することがあると首都警察のMark Stokes氏は語りました。


㊧砂漠 ㊨ヌード

そのため専門家が手動で確認する作業が必要になるわけですが、精神面での負担が大きく、これらの作業をAIを利用したソフトウェアに任せてしまおうというわけです。

また計画に伴い、犯罪の証拠写真といったデータはGoogleやMicrosoft、Amazonなどが提供するクラウド環境に移行する予定。

2017年時点において首都警察はロンドンを拠点としたデータセンターを利用していますが、高画質の画像やムービーを扱うため、リソースを圧迫しているとのことです。

クラウドに重要な証拠写真やムービーを移行することは、ハッカーの攻撃にあう可能性を考えると危険な行為に見えます。

しかしStokes氏は、資金の限られている警察とは違いGoogleやAmazonといった企業は潤沢な資金で優秀な才能を雇うことができるため、データを保存する場所として適していると考えているとのこと。

新しいソフトウェアは「シリコンバレーの提供者」と協力して開発されており、2~3年後には実際の現場で使用される予定とされています。

[via:https://gunosy.com/articles/R2MR0?s=s]

こんな記事はいかがですか?
注目されている記事

まだデータがありません。

この記事、あなたはどう思いましたか?

コメントを残す