残しておきたい雑談がある

リニューアルしたなぽりんブログ。(日常報告よりちょっとまとまったネタ)

パブコメ資料よみこみ

総務省2/19締め切り分パブコメにとりかかっております
2024年1月のAI事業者ガイドライン案からメモ

p2-3(図1)・総務省経産省の、今まであった3つのガイドラインを統合したやつをつくった。
p2 ・ガイドラインは非拘束的なソフトロー(なぽりん注:それって実効性に疑問だよね、著作権法もそうだけど)
p3
・「リスクベースアプローチ。」=リスクが大きそうなところを重点的に対策。
・「アジャイルガバナンス」=実行しながら管理する、の思想のもと適宜更新を行う(なぽりん注:ただし随時とはいっていない)。
・「マルチステークホルダー」=一般人含む大勢のジャンルが関係者。
P4
・このガイドラインの宛先はタイトルにあるとおり「事業者」(=なぽりん注:金を儲けようとしてる人)。一般消費者にとっても有用ではあるが。
・事業活動以外でAIを利用する「業務外利用者」については本ガイドラインの対象に含まない(なぽりん注:「趣味」でAIをつかったフェイクポルノなどの嫌がらせをする人も対象外。それでいいのか?)
・「学習データ提供者」ではなくデータの提供を受ける者、入手する者が責任を担うから、提供者もガイドライン対象ではない。
p4ラスト~p5
・「AI開発者」「AI提供者」「AI利用者」の3者にわけるし、兼ねることもある
・AI開発者はアルゴリズム、データ収集ふくめてシステム構築する人
・AI提供者はサービスやアプリとして提供している人
・AI利用者(のうちの、事業者、金儲けにつかおうとしている人)が適切な利用を行い運用する役割を負うし、業務外利用者に影響があるときは不利益回避しつつ便益最大化をする役割を担う
( なぽりん注:??業務と業務外がわかりにくい。個人事業はどうなのか?アフィリエイトは?YouTube収入は??あと最終的に開発・提供者に金を払う利用者だけに責任を押しつけていないか?ミミックは提供者か?あ、利用者か。となると「データ提供者」+「AI開発者」→「AI提供者」→「AI利用者」)

p6図
「基本理念(why)

指針(what)

実践(how)」
のうちwhyとwhatをこの書類で扱う(howの部分は「ガイドライン案別紙2」で提出している)
(なぽりん注:まだまだある、長いぞこの書類……)
第一章 用語
アルゴリズム→(機械学習)→AIモデル→生成AI
(なぽりん注:人がプログラミングして、アルゴリズムで方針をつくり、その方針の下で機械に膨大なデータセット機械学習させて、機械に「アルゴリズムの代数部分にうまくハマるパラメータ群」を算出させる。
算出されたパラメータ群は人間がみても膨大な数字の羅列であって全く意味がわからないが、機械からみればたいしたことのない数の、たとえば1ギガバイトとかの、数字であって、アルゴリズムにハマった状態でうまく動くように機械学習によって導きだされている。
この、アルゴリズムにパラメータをハメこんで(いちいち膨大な学習データセットの伝送や、機械学習といった時間のかかる操作を行うことなしに)さっと動くようになった仕組みを「AIモデル」という。かな。よくAIの説明で「学習済みモデル」という言葉がでるけど、この書類でいうAIモデルは学習済みだよってことだろう。ところで、LoRAではパラメータセットを限定して目的よりにつくりなおさせることができてるよね。)
p12
(なぽりん注:脚注7にてようやく「ステークホルダー」の定義。普通に「影響をうける人」でよくないか。あと早めにいってよ)
p13-
C共通の指針 (注:この項目「共通の指針」がこの文書の本体)
1)人間中心
 ①人間の尊厳を尊重(だいじなことなので2回)、AIの限界を理解(なぽりん注:そもそもAI生成がお株(世間一般での評価)があがりすぎなので下げてほしいてのはあるよな。それに、不気味の谷問題がある。ヒトのフリをして意味を解さないAIの言動は、金銭的損害よりも尊厳、たとえば肖像権とか発言の統一性を損なうことにより悪感情を引き出す。こういったことまで「尊厳」の2文字におしこめず、かみ砕いて説明すべきだ。)
 ②操作 デマ、お株の上がりすぎ、フィルターバブルやエコーチェンバー、選挙などへの影響に注意(なぽりん注:まあグーグル検索のサジェストや、SNSとくにXのおすすめなど、他のネットサービスでもそこそこひどい状況はあるけど、浸透速度が遅いのと、無料ゆえユーザーが多くて口コミでおかしい部分にすぐに気づいて対処することが多い。選挙は新聞などメディアがある。一方、AIの場合は、検証を行う手段が用意されてないうえに悪意を増幅できてしまう。)
 ③偽情報(注:これもフェイクポルノで顕著だけど悪意・嘘をリアルに創出できちゃう)
 ④多様性・包摂性(注:いわゆる差別解消のことを新しい言葉で言ってる?)
 ⑤利用者支援:緊急時の警告など
 ⑥持続可能性;地球環境への影響(注:特にググれば済むことにまでAIをつかうことは電気の無駄づかいではないか?アルファーGOでは棋譜一枚に億のサーバー代がかかったという。環境コスト検証が必要。まあ電気代をみて真っ青になる提供者がいると提供を絞るから一過性だとはおもうが。)
2)安全性
③適性学習(注:これがまもられていないことが大きく問題視されているのでは?)
3)公平性
4)プライバシー保護
5)セキュリティ確保
6)透明性
 ①検証可能性の確保(注:これがまもられていないことが大きく問題視されているのでは?)
 ②情報提供(注:これはもう絶対まもられてない。知らないうちに学習されてる絵師7000人)
 ③合理的かつ誠実な対応(注:これは絶対衝突するやつじゃん。プライバシー侵害されたらデータセットごと消すまでひかないよね)
 ④説明可能性・解釈可能性
7)アカウンタビリティ
 ①トレーサビリティの向上 (注:これをまもっているのをmimicしかしらないし向上より確保してほしい。)
 ①~⑥が非常に重要
8)教育・リテラシー
9)公正競争確保
10)イノベーション
D (注:だいぶむずかしくて私などでは時間がかかりそうな項目だが……)
VII 電子透かしによるAI判別(注:なぜこれが「高度なAIシステムに関する事業者」のみなのか? たとえば、画像はプロンプトとハッシュ値の埋め込みをデフォルトで行うとかできないの?そうすれば「著作者名」をプロンプトにいれたかどうかの判別ができるではないですか。)

ここまでやってイライライラっとしたんだけどさ。
内閣府「クールジャパンがんばってね」(インボイスはやめないけど)
文化庁「今の法律でここまではできるよ」(海外鯖つかう生成AIはできない)
総務省ガイドラインをだしたからまもってくれるといいなあ」(長過ぎだし罰則なしだし。AI絵師まで読んで守るわけがない)
もうこれはやっぱりだれかが原告団率いてなんとかするしかないんだろうなあておもうわけよね