いや、ギガジンからなんだけどさあ。
将来的に統合失調症になるかどうかが93%の正確性で自動分析可能に
これって、一歩間違うと、思い切り人権に関わってくるよなあ。
企業の採用や、学校の入試とかに使われて、選別かけるよーな。
どのくらいのエビデンスがあるんだろう?
この病気、発症前に対応を誤らなければ、発症リスク減るだろうし。
なんかなあ。
まあいいや、
いや、ギガジンからなんだけどさあ。
将来的に統合失調症になるかどうかが93%の正確性で自動分析可能に
これって、一歩間違うと、思い切り人権に関わってくるよなあ。
企業の採用や、学校の入試とかに使われて、選別かけるよーな。
どのくらいのエビデンスがあるんだろう?
この病気、発症前に対応を誤らなければ、発症リスク減るだろうし。
なんかなあ。
まあいいや、
AIで統合失調症になるのなら・・・
こんなに
苦しいのなら
悲しいのなら・・・
愛などいらぬ!!
公平な試算がされているとして、保険料が割高になったり、下がったりしたら、人権侵害と感じるんだろうね。
未来予測が確率でしかないので保険があるわけで。
公平さは結果からしかわからない。
今回統合失調症だけど、
危険思想の持ち主になる確率とか、
将来の予想稼得収入とか、
わからんけど、ビッグデータから予測されちゃうことはあるわけよ。
人権てなんだ?というところまで話は拡大するんだが・・・。
詳しいことはこいつ。
![](//ws-fe.amazon-adsystem.com/widgets/q?_encoding=UTF8&ASIN=4532134854&Format=_SL250_&ID=AsinImage&MarketPlace=JP&ServiceVersion=20070822&WS=1&tag=neruko-22&language=ja_JP)
![](https://ir-jp.amazon-adsystem.com/e/ir?t=neruko-22&language=ja_JP&l=li3&o=9&a=4532134854)
街の防犯カメラで、顔撮られて、
犯罪を犯す確率が高いとか言われて予防拘禁されたかないな。