- 1 : 2022/08/22(月) 21:56:22.75 ID:+kMYbaGB0
-
遠隔診療のため幼児の股間を撮影した父親、Googleアカウントを永久消去される | TechnoEdge テクノエッジ
https://www.techno-edge.net/article/2022/08/22/198.html - 2 : 2022/08/22(月) 21:56:53.11 ID:l0P2oLRI0
-
地獄かよこの世界は
- 3 : 2022/08/22(月) 21:57:28.95 ID:+kMYbaGB0
-
怖い実話としてよく耳にする「ある日突然Goolgeアカウントから締め出され、抗議しても泣き寝入り」にこれまた強烈な例がありました。
遠隔診療のため医療機関の指示で幼児の生殖器の写真を送信した父親が、Googleから「有害なコンテンツ」のアップロードを理由にアカウント停止処分と当局への通報を受け、捜査の結果警察の疑いは晴れたもののGoogleは許さず、GmailやGoogle Fi電話番号を含むアカウントを永久に消去した事例を NY Timesが伝えています。
リンク先は複数の事例や関係者からの聞き取りを含む長大な記事ですが、ひとつの件の概要を引くと、
・米サンフランシスコ在住の40代男性が、乳幼児の息子の性器に腫れがあり痛がっていることに気づき、診察のためAndroidスマートフォンで患部を撮影。2021年のコロナ下であったことから遠隔診療で相談したところ写真を送るよう指示され、妻が iPhoneで医療機関に送信。
・処方された抗生剤で症状は治ったものの、撮影から二日後に男性のGoogleアカウントが利用できなくなり、「有害なコンテンツ」「違法行為の疑いがある、Googleポリシーの重大な違反」を理由に告げられる。
・男性は10年分以上のメールや連絡先、写真、個人ファイル等を保存していたが、すべてアクセス不能になった。またGoogleの携帯電話サービスGoogle Fi ユーザーだったため、電話番号も使えなくなった。認証にメールアドレスや電話番号等を使っていたGoogle以外のサービスにもアクセスできなくなった。
・男性はエンジニアとして通報をもとに動画を取り下げるシステムに関わった経験から、こうしたシステムには誤検出がつきもので、プロセスの途中には必ず人力のチェックがあると考え、Googleアカウントの停止も誤解が解けるだろうとフォームから申し立てをしたが、Googleからの対応はなく、結局はアクセスできないまま永久消去された。
・数か月後に警察から封書が届き、Googleから関係機関への通報をもとに令状を得て男性のGoogleアカウント内のメールや写真等を児童虐待の疑いで捜査したが、結果として嫌疑は晴れていたことが判明した。
・男性が警察に問い合わせたところ、嫌疑が晴れたタイミングで男性に連絡を試みるも不通で伝えられなかったこと、アカウントとデータを削除されても、それはGoogleとの間で解決すべきことであり警察は何もできないと説明された。
といった内容。男性はGoogleを相手にした訴訟も検討したものの、多額の費用がかかることから断念したとされています。
- 4 : 2022/08/22(月) 21:57:29.18 ID:kWIW/rO80
-
おちんちんは犯罪
- 5 : 2022/08/22(月) 21:57:36.73 ID:+kMYbaGB0
-
さて、通常であれば個人対 Googleで何もできず、何があったのかも知らされないまま泣き寝入りになるところですが、NY Timesはこの件についてGoogle側のコメントをとっています。
そちらは煎じ詰めれば「目視で確認した際に腫れや赤みは認めなかった(ため性的虐待と判断した)」「問題の写真の6か月前に撮影された動画に、幼児と裸の女性がベッドにいるものがあった」「性的虐待であったとの判断は正しいと考えており、見直しはしない」。
男性はこの動画について、はっきりとした記憶はないものの、おそらく休日の朝にでもベッドにいる息子と妻を撮ったものだろう、誰かの目に触れるなど考えもしなかったし、パジャマで寝ていればこんなことにはならなかったのにと語っています。
このほかテキサス州での事例や、具体的な画像検出の方法(既知の画像とのハッシュ照合やGoogleのAIによる判定)、発見された場合の通報プロセス等については NY Times の記事を参照。
児童を含む虐待が非常に深刻な問題であること、実際に両親による虐待の事例も多々あるとして、今回の例でおそろしいのは、Googleを経由した通報で警察が Googleアカウント内のデータを捜査し嫌疑なしと判断しているにもかかわらず、Googleが実質的に警察や司法の判断を上書きして「クロ」と判定していること。また「赤みや腫れは認められなかった」と医学的判断すらGoogleが下しており、審査について外部の第三者の目が及ばず検証もできないこと。
Google的には、あくまでユーザーが合意した規約に従い、虐待を減らすという社会的要請に応えつつ、社内規定に基づき対応しただけであって、訴訟を起こせばいつでも法的判断を仰ぐことはできますという立場です。
しかし一方で、義務として当局に通報する、被害を防ぐため画像をブロックする、証拠隠滅を防ぐため一時的にアクセスを遮断する等を超えて、過去十数年分のメールや写真、ファイル、連絡先へのアクセス、アプリデータ、電話番号等まで、社内の判断のみで永久削除するに及んでは、実質的には法的判断のプロセスもなく救済手段もない過剰な私刑として機能しているともいえます。
近代国家では現に犯罪の証拠が見つかり、裁判のプロセスを踏んで有罪となった場合でも、罪の軽重に応じて刑罰は定められており、身分証明の剥奪まではしないことを考えると、多くの人がデジタル生活を依存しがちな巨大IT企業は、何かの違反や間違いがあれば不透明なプロセスで財産没収と追放刑を受ける封建領主以前に舞い戻っているとすらいえます。
こうした例が話題になるたびに一社依存の危険が語られ、ローカルにバックアップしなかった本人が悪い、複数のサービスに分散させなかったのが愚かという指摘も繰り返されますが、自衛の観点からは事実であっても、身分証明や社会的な生活まで実質的に私企業に依存する傾向がますます強まるなかで、社会的な合意として「評判が悪い企業は市場原理で淘汰されるから問題ない」「契約するほうが愚かなので救済は不要」がどこまで受け入れられるかはまた別の話。
開発者も過程を説明できないAIによる判断やフィルタリングが増え、デジタル生活とリアルの一体化が進むなかで、少なくともアカウント抹消といった重大なペナルティにいたる判断プロセスの透明性確保や、巨大企業と1ユーザーの非対称性を踏まえた再審査や救済規定の確立はますます重要な課題となっています。とりあえず、写真のクラウド保存とゲームのセーブデータ保存は別サービスにしておこうと強く思わされるニュースです。
- 6 : 2022/08/22(月) 21:58:07.86 ID:P4Ca+YVQ0
-
今の世の中でGoogle八分ほど怖いものは無いよな
- 7 : 2022/08/22(月) 21:58:13.47 ID:69EdcaiI0
-
写メってなんだよ
- 9 : 2022/08/22(月) 21:58:44.47 ID:l0P2oLRI0
-
>>7
写真付きメール - 8 : 2022/08/22(月) 21:58:24.31 ID:l0P2oLRI0
-
(ヽ´ん`)アタシおっぱい見られたくないから手術受けないわよ
- 10 : 2022/08/22(月) 21:58:56.08 ID:w/XuICcQM
-
まじかよPixel買うのやめます
- 11 : 2022/08/22(月) 21:59:01.47 ID:FoJaplz70
-
マジでこういうのがあるから全データをGoogleに預けるのは怖い
- 12 : 2022/08/22(月) 22:00:04.21 ID:bincDVj9M
-
写メって…
- 16 : 2022/08/22(月) 22:01:48.63 ID:l0P2oLRI0
-
>>12
写真を添付したメール - 13 : 2022/08/22(月) 22:00:42.74 ID:ZoEnQXTl0
-
医療目的ならセーフって聞いてたのに…(´・ω・`)
- 14 : 2022/08/22(月) 22:00:54.85 ID:l0P2oLRI0
-
You Tubeも医療動画なら乳首もマ●コもOKだけど
児ポはないもんな(ヽ´ん`)OKグーグル、子供チンチン見た奴らの目を潰せ
- 15 : 2022/08/22(月) 22:01:36.92 ID:2jdb4FUF0
-
ちんこっぽい形の野菜でbanされそうね
- 17 : 2022/08/22(月) 22:02:08.39 ID:KSCckn3N0
-
J-Phoneかよ
- 18 : 2022/08/22(月) 22:02:10.87 ID:D7PfMfdWp
-
何千億の賠償金ゲットチャンスやん
- 19 : 2022/08/22(月) 22:02:21.98 ID:l0P2oLRI0
-
グーグル「黒人はゴリラ」
- 20 : 2022/08/22(月) 22:02:35.15 ID:J99jjVmFa
-
むしろグーグルがすべての画像やデータを覗いてるってのがな
- 21 : 2022/08/22(月) 22:02:44.53 ID:5fm0AZh00
-
写メよりインスタで送れよw
- 22 : 2022/08/22(月) 22:03:30.41 ID:fX1Q2CWG0
-
勝手に覗いてんじゃねーぞハゲ
- 23 : 2022/08/22(月) 22:03:31.44 ID:OaA3bapV0
-
ケンモのチンポも小さすぎて児ポ扱いされそう
- 24 : 2022/08/22(月) 22:03:32.12 ID:o+jY649j0
-
病院が用意したサイトにアップロードするシステムにしろ
- 25 : 2022/08/22(月) 22:03:39.48 ID:yqWbGRdi0
-
アップルはスルーしててわろた
ロリコン公認はiPhoneに軍配か - 26 : 2022/08/22(月) 22:04:36.34 ID:iy0dMB5Ka
-
ビデオ通話があるだろうが
- 27 : 2022/08/22(月) 22:04:40.15 ID:hT17Suxm0
-
日本でも勝手に通報されるの?
- 28 : 2022/08/22(月) 22:04:50.67 ID:7d2SPZ4kM
-
圧縮ファイルにすりゃええんやろ?
お気に入りのエ口画像はそれで保存してるやで - 29 : 2022/08/22(月) 22:04:50.72 ID:w8cMiN7n0
-
こういうのあるからGoogleフォト使いたくないんよ😞
- 30 : 2022/08/22(月) 22:04:52.42 ID:l0P2oLRI0
-
そのうち相撲も見れなくなるよ
結局共産圏と同じじゃねえかよ - 32 : 2022/08/22(月) 22:07:05.47 ID:VYqvII/+0
-
ぶっちゃけgoogleなんて邪悪な存在だしな
こんなのも結局はやってる感でしかなくて、
表向きは犯罪撲滅に努力してますというポーズなだけ - 38 : 2022/08/22(月) 22:08:12.08 ID:l0P2oLRI0
-
>>32
(ヽ´ん`)現実の児童ポルノを規制しろよ - 33 : 2022/08/22(月) 22:07:35.34 ID:l0P2oLRI0
-
子供に見えるエ口アニメもどんどん消されてるからな
グーグルドライブに入れてたら消されてた - 34 : 2022/08/22(月) 22:07:39.72 ID:lfm61LiMM
-
スマホ使い始めた頃知らぬ間にグーグルドライブとフォトに写真上がってて血の気が引いたわ
撮ってるのは猫の写真と自分の上裸の体型記録写真だけだが
勝手に見てんじゃねえよと - 35 : 2022/08/22(月) 22:07:46.82 ID:kkDtUv0j0
-
googleはゴミ
やっぱtelegramだわ - 36 : 2022/08/22(月) 22:07:52.75 ID:fxdMkrkE0
-
ビッグブラザーあらわる
- 37 : 2022/08/22(月) 22:08:03.64 ID:Kn7truFp0
-
中世ジャップぐーぐる
- 39 : 2022/08/22(月) 22:08:33.55 ID:ZZR1qmSR0
-
EUに頑張ってもらうしかない
だからおまえらも応援しろ - 40 : 2022/08/22(月) 22:09:25.09 ID:V1ekpGe/0
-
グーグルにログインする習慣がない漏れには無縁の話であった
- 41 : 2022/08/22(月) 22:10:27.78 ID:l0P2oLRI0
-
クレしんも単純所持で逮捕あるぞ
- 42 : 2022/08/22(月) 22:11:11.36 ID:oYyhBYisd
-
弁護士「われわれに」
弁護士「おまかせください」 - 43 : 2022/08/22(月) 22:11:18.89 ID:Eu5Hxb4x0
-
勝手に見るなよ気持ち悪い
- 44 : 2022/08/22(月) 22:12:23.14 ID:X/hU8+zf0
-
誤BANは仕方ないとしても復旧させないの悪質すぎて草
どんだけ自分たちの非を認めたくないんだよ - 45 : 2022/08/22(月) 22:13:02.91 ID:FwrLedrt0
-
やっぱグーグルってクソだわ
- 46 : 2022/08/22(月) 22:14:14.16 ID:FcRbZfwj0
-
金がかかるから訴訟諦めた書いてあるが
勝訴すればとんでもない額の賠償もらえるだろ。負ける要素ないだろうし - 51 : 2022/08/22(月) 22:16:22.53 ID:l0P2oLRI0
-
>>46
この夫婦は存在を抹消されただろ
グーグルアカウント無し=戸籍なしと同義だ - 47 : 2022/08/22(月) 22:14:33.60 ID:l0P2oLRI0
-
このまま企業が権力を持ち過ぎて
ターミネーターやアーマード・コアの世界来るだろ - 48 : 2022/08/22(月) 22:14:34.46 ID:w9f6d5WV0
-
いや勝手に見るなよバカ
- 49 : 2022/08/22(月) 22:14:55.20 ID:NOOMdQMxp
-
ディストピア 1984世界到来
- 50 : 2022/08/22(月) 22:15:33.33 ID:9hTyZwiUM
-
ていうか何でそんな簡単に顧客のデータ閲覧できるんだよ
AIが画像はじき出してんだとしたら子供みてーなちんぽのやつがパイパンにして画像上げたらそれも検出するんか? - 52 : 2022/08/22(月) 22:16:29.98 ID:uv53ov88M
-
>問題の写真の6か月前に撮影された動画に、幼児と裸の女性がベッドにいるものがあった
これが誤解された原因じゃないの
- 53 : 2022/08/22(月) 22:16:34.15 ID:NHCx4zIa0
-
「子どもの金玉の高さが左右揃ってない」って病院に連れてったとかあるらしい
うちの母親は - 54 : 2022/08/22(月) 22:16:38.36 ID:v0kWxdJd0
-
エプスタイン島は見抜けなかったのに一般人は即バンかよ
- 55 : 2022/08/22(月) 22:16:45.38 ID:Auzj4E9q0
-
夫婦「息子のちんぽ腫れてる」
病院「シコって抜け」
夫婦「治ったサンクス」 - 56 : 2022/08/22(月) 22:17:09.77 ID:jxfn+W9H0
-
勝手に覗かれて消されるからクラウド系はクソ
- 57 : 2022/08/22(月) 22:17:31.18 ID:DXunTQAZ0
-
問題はgoogleのAIがそれを見つけたとしても
それをgoogleの中の人が見れる事だよな。
これ逆に好みの女性の顔を登録しておけば
類似の女性の裸を含む写真や動画を漁る事は
技術的に可能。社内でそういった悪用を防ぐ
仕組みが有れば良いけどそれは社外の人間からは見えない - 58 : 2022/08/22(月) 22:17:56.02 ID:AdULP52e0
-
もし息子のちんちんが腫れてオンラインで医師に相談しなきゃいけなくなったらYahooメールで送ればいいの?
元スレ:https://greta.5ch.net/test/read.cgi/poverty/1661172982
コメント