この項目では、プロンプトに応答してテキストや画像を生成する人工知能システムについて説明しています。統計的分類の文脈における生成モデルについては「生成的モデル 」を、さまざまな知的作業を実行する人工知能については「汎用人工知能 」をご覧ください。
スペース・オペラ・シアター (Théâtre d'Opéra Spatial)、Midjourney によって作成された画像
生成的人工知能 (せいせいてきじんこうちのう、英 : generative artificial intelligence )または生成AI (せいせいエーアイ、英 : GenAI )は、文字などの入力(プロンプト )に対してテキスト 、画像 、または他のメディア を応答として生成する人工知能 システムの一種である[ 5] [ 6] 。ジェネレーティブAI 、ジェネラティブAI ともよばれる。
生成的人工知能モデルは、訓練データ の規則性や構造を訓練において学習することで、訓練データに含まれない新しいデータを生成することができる[ 7] [ 8] 。
著名な生成AIシステムとして、OpenAI がGPT-3 やGPT-4 の大規模言語モデル [ 9] を使用して構築したチャットボット のChatGPT (および別形のBing Chat )や、Google がLaMDA 基盤モデルに構築したチャットボットBard がある[ 10] 。その他の生成AIモデルとして、Stable Diffusion やDALL-E などの人工知能アート システムがあげられる[ 11] 。
生成AIは、アート、執筆、ソフトウェア開発、ヘルスケア、金融、ゲーム、マーケティング、ファッションなど、幅広い業界で応用できる可能性があるとされている[ 12] [ 13] 。生成AIへの投資は2020年代初頭に急増し、Microsoft、Google、Baiduなどの大企業だけでなく、多数の中小企業も生成AIモデルを開発している[ 5] [ 14] [ 15] 。しかし、生成AIを訓練する目的での著作物 の野放図な利用や人をだましたり操作したりするフェイクニュース やディープフェイク の作成など、生成AIの悪用の可能性も懸念されており[ 16] [ 17] [ 18] 、欧州連合 における人工知能法 など法規制の議論も進んでいる[ 19] [ 20] 。また、効果的加速主義 などの技術思想との関係も指摘されている[ 21] 。
歴史
機械学習 の分野では、その誕生以来、データをモデル化し予測することを目的として、統計的モデル を使用してきた。2000年代後半、ディープラーニング (深層学習)の登場により、画像や動画処理、テキスト分析、音声認識などのタスクで進化と研究が進んできた。しかし、ほとんどのディープニューラルネットワークは識別的モデル として、画像認識 (en:英語版 ) のような分類タスクを実行していた。
2014年、変分オートエンコーダ や敵対的生成ネットワーク などの進歩により、画像のような複雑なデータの生成的モデル を学習し、生成することができる実用的なディープニューラルネットワークが登場した。
2017年、Transformer ネットワークはより大規模な生成的モデルの実現を可能にし、2018年に最初の生成的事前学習トランスフォーマー (GPT)が開発された[ 22] 。2019年、GPT-2 がこれに続き、基盤モデル として教師なし学習を多くの異なるタスクに汎化する能力を実証した[ 23] 。
2024年、映像生成AIの実用化の成功は、イラスト生成AIの成功が人間の仕事の質を超えるのと同じようになると専門家は予想している[ 24] 。
2025年、生成AI検索はMITが発表した世界のブレークスルー技術ランキングで2位にランクインし[ 25] 、従来のGoogle検索は生成人工知能検索に取って代わられると予測されている[ 26] [ 27] 。
これ以降の応用面における進化については次節のモダリティを参照のこと。
モダリティ
生成AIシステムは、教師なし または自己教師あり の機械学習 を、データセットに適用することにより構築される。生成AIシステムの能力は、訓練に使用するデータセットのモダリティ や種類 (英語版 ) によって異なる。
生成AIは、ユニモーダルシステムとマルチモーダルシステム (英語版 ) に大分でき、ユニモーダルは1種類の入力(例:テキスト)しか受け入れないのに対し、マルチモーダルは複数種類の入力(例:テキストと画像)を受け入れることができる[ 28] 。たとえば、OpenAIのGPT-4はテキストと画像の両方の入力を受け入れる[ 28] 。
課題
より簡便にメディアの生成を行うことのできる生成的人工知能に対して政府や企業、個人 [誰? ] が懸念を表明している。その中で、抗議活動や訴訟、人工知能開発の一時停止の要求が行われている。また、各国政府は規制を検討するなどしている。
2023年5月に開催されたG7広島サミット では広島AIプロセスが採択され、その中では安全、安心、信頼できるAIの実現に向けてAIライフサイクル全体の関係者それぞれが異なる責任を持つ目的でリスクの低減などの方針を定める「全てのAI関係者向けの広島プロセス国際指針」を整理した。[ 37]
アントニオ・グテーレス 国連事務総長は2023年7月の国連安全保障理事会 の会見において、AIは「世界の発展を加速」し、莫大な富を齎す可能性があると述べた。一方で、使い方によっては「想像を絶する規模での死と破壊、広範囲に及ぶトラウマ 、深刻な心理的ダメージを引き起こす可能性がある」と述べた[ 38] 。
2024年6月に開催された主要国首脳会議 (G7)で、ローマ教皇 フランシスコ は人工知能が人類の未来に与える影響を考察するスピーチを行った。知識へのアクセス、科学研究の進歩、重労働からの開放などのメリットに言及する一方で、先進国と発展途上国の間、または社会階層間に重大な不正義をもたらす可能性を語った。生成AIについては「厳密には『生成的』ではない」「ビッグデータ の中から情報を探し、要求に応じて、魅力的なスタイルで仕立てるものであり、新しい概念や分析を発展させるものではない」「時にはフェイクニュース を正当化しかねないという意味で、それは『生成的』というより、むしろ『強制的』である」として「もしわれわれが、人々から自分自身と自分の人生について決定する力を取り上げ、機械の選択に依存させるならば、人類に希望のない未来を負わせることになる」と述べた[ 39] 。
失業
2023年のSAG-AFTRAストライキ (英語版 ) において「生成AIの利用の制限」は要求の1つだった。[ 40]
AI開発の初期の頃より、どのような仕事がコンピュータによって実行可能であり、実行させるべきかであるかの議論がELIZA の開発者であるジョセフ・ワイゼンバウム らによって進められてきた[ 41] 。
生成的人工知能によるイラストレータや俳優、声優、アナウンサーなどの失業 が懸念されている[ 42] [ 43] [ 44] 。2023年4月の時点で画像生成AIにより中国のイラストレーターの仕事の70%が失われていると報告されている[ 45] [ 46] 。2023年7月には生成AIの開発が2023年のハリウッド労働争議 (英語版 ) の一因となった。映画俳優組合 の会長フラン・ドレッシャー は、2023年のSAG-AFTRAストライキ (英語版 ) 中に「人工知能はクリエイティブな職業に存続の脅威をもたらす」と宣言した[ 47] 。 音声生成AIは、声優 業界への潜在的な脅威とみなされている[ 48] [ 49] 。
フェイク情報の作成
エリオット・ヒギンズ (英語版 ) がMidjourneyを用いて生成したドナルド・トランプ が逮捕される様子を描いたディープフェイク画像(2023)
これまでも古典的な画像処理技術などでフェイク情報は作成されてきたが、生成的人工知能によって画像や映像、音声、文章などの生成がより高精度に且つ容易になるため、詐欺 や世論操作 、プロパガンダ 、名誉毀損 等に悪用される可能性があるとされている。国内外において、政治家の顔を入れ替えたり、発言の捏造などの世論操作や、災害に関するデマゴーグ、ニュース番組になりすました広告やフェイクポルノ 等の事例が起こっている。
悪用事例以外にも、ニュース記事の生成や日本赤十字社 による関東大震災 の体験記の生成[ 50] などの生成的人工知能の活用を目指した取り組みに関してもその情報の信頼性と信憑性、歴史的記録の捏造など様々な課題が指摘されている[ 51] 。
音声でも有名人や公人の物議を醸す発言をしている音声を生成する例などがある[ 52] [ 53] [ 54] [ 55] [ 56] [ 57] 。
これに対して、ユーザーの身元確認を通じて潜在的な悪用の軽減に取り組むシステム整備を行うほかに[ 58] 、技術的にディープフェイク への対策のための研究が進められている[ 59] 。
報道分野
韓国、中国、台湾、インド、クウェート、ギリシャのニュース放送局は、生成的人工知能をナレーションに活用しニュースを伝えており、ニュースの信頼性に関する懸念が呈されている[ 42] [ 43] [ 44] 。AIによるナレーションはISIL によっても利用されている[ 60] 。
2023年4月、ドイツのタブロイド 紙Die Aktuelleは、スキー事故で脳挫傷 を負って、2013年以来公の場に姿を見せていなかった元レーシングドライバーのミハエル・シューマッハ との偽のインタビューを生成的人工知能で作成して掲載した。この記事は表紙に「欺瞞的に本物」という一文を明記し、インタビューの最後に生成的人工知能によるものであることが明記されたものだったが、論争を巻き起こした後、編集長は解雇された[ 61] 。
2023年、Google は報道機関に対し、「時事問題の詳細」などの入力データに基づいて「ニュース記事を作成する」とされるツールを売り込んだと報じられた。この売り込みを受け報道機関側は、このツールを「正確で手の込んだニュースを作成するための努力を軽視している」と評した[ 62] 。
サイバー犯罪
生成的人工知能の出現以前からディープフェイクは既にフィッシング詐欺 を含むさまざまな種類のサイバー犯罪 に悪用されている[ 63] 。生成的人工知能によるテキスト生成AIはECサイト 上で高評価の偽レビューを量産するために大規模に行うことなど可能にした[ 64] 。ほかにもWormGPTやFraudGPTなどサイバー犯罪を目的とした大規模言語モデルが作成された例もある[ 65] 。
グーグルでクリック詐欺の対策に従事していたシュマン・ゴーセマジュムダー (英語版 ) は、当初メディアを騒がせたディープフェイク動画はすぐに一般的となり、その結果より危険なものになるだろうと予測している[ 66] 。2023年の研究では脱獄や逆心理学などを使った攻撃でChatGPTに掛けられた保護を回避して有害情報を抽出する脆弱性を確認した。同研究ではChatGPTのソーシャルエンジニアリング やフィッシング詐欺 への悪用の潜在的リスクを指摘しており、一方で、生成的人工知能を活用することでサイバーセキュリティを改善できる可能性を指摘している[ 67] 。
ハルシネーション (幻覚)、作話
生成的人工知能によって生成されたコンテンツにはもっともらしく聞こえる嘘や偽情報 がランダムに出現する。この現象はハルシネーション(hallucination、幻覚) と呼ばれ[ 68] [ 69] 、研究者はChatGPT に用いる大規模言語モデル (LLM)などでは最大27%の確率でハルシネーション (幻覚)を起こし[ 70] 、46%に事実関係の誤りが存在すると推定している[ 71] 。
大規模言語モデル はもっともらしい文章を生成できるものの、処理対象の言語の意味を理解してはいないという意味では確率的オウム という言葉が用いられる[ 72] [ 73] 。この用語は2021年にティムニット・ゲブル 、マーガレット・ミッチェル (科学者) (英語版 ) らによって発表された論文「On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 」(日本語: 確率的オウムの危険性について: 言語モデルは大きすぎるか?)において、広く知られるようになった[ 74] [ 75] 。
2023年にはアメリカ合衆国ニューヨーク州の弁護士が審理中の民事訴訟の資料作成にChatGPT を利用した結果、存在しない判例 の「引用 」を6件行い、罰金を課せられるという事例も発生している[ 76] [ 77] 。
ハルシネーションを軽減するための研究が行われているが[ 78] 、ハルシネーションは避けられないものであり、大規模言語モデルの本質的な限界である可能性が指摘されている[ 79] 。また、大規模言語モデルは問題を軽減するように設計されたものであっても、かえってハルシネーションを増幅させることがあることが指摘されている[ 80] 。
生成的人工知能が医療教育現場で推奨されることもある現在[ 81] 、生成的人工知能によるこうしたハルシネーション(作り話)を見抜く批判的思考が一層求められている[ 82] 。
人種的、ジェンダーバイアスの強化
生成的人工知能が訓練データに含まれる文化的偏見を反映し、増幅する可能性が懸念されている。例えば、医師、エンジニア、教師などが男性であり、秘書や料理人、看護師などが女性とする[ 83] 、「CEO の写真」から白人男性の画像を不釣り合いに多く生成される場合などが挙げられている[ 84] 。入力プロンプトの変更[ 85] や訓練データの再重み付けなど、バイアスを軽減する手法が研究されている[ 86] 。
ビッグテックへの依存
最先端のAIモデルの訓練には膨大な計算能力が必要であり、十分な資金力を持っている大手テクノロジー企業に依存することが多い。Google やMicrosoft のようなビッグテック が所有する計算資源 への依存や寡占 が懸念される[ 87] 。
エネルギーと環境問題
生成的人工知能の地球環境面への悪影響が指摘されている。特に、データセンター の運営に際する冷却水への淡水 の使用[ 88] [ 89] 、電力消費[ 90] [ 91] [ 92] 、それに際する温室効果ガス の排出[ 93] [ 90] [ 94] などが懸念されている。例えば、ChatGPT による検索には、Google検索の10倍の電力が必要と指摘されており[ 95] 、生成的人工知能に依存するアプリケーションの普及、あるいはモデルの訓練の増加による地球環境への負担が懸念されている[ 91] [ 89] 。
提案されている対策として、モデル開発やデータ収集の前に潜在的な環境コストを考慮すること[ 93] 、データセンターのエネルギー効率を高めること[ 90] [ 94] [ 88] [ 89] [ 91] [ 92] 、より効率的な機械学習モデルを構築すること[ 90] [ 88] [ 89] 、モデルの再訓練回数を最小限に抑えること[ 94] 、これらのモデルの環境影響を監査するための政府主導の枠組みを開発すること[ 88] [ 94] 、これらのモデルの透明性を担保する法規制を講じること[ 94] 、エネルギーと水の浪費を規制すること[ 88] 、研究者にAIモデルの温室効果ガス排出量に関するデータを公開するよう奨励すること[ 94] [ 91] 、機械学習と環境科学 の両方に通じる専門家の数を増やすことなどが提案されている[ 94] 。
低品質なコンテンツの増加
撤回済みの論文に掲載されていた科学的には出鱈目であるイラスト。画像生成AIのMidjourney で作成されていたことが判明している[ 96] 。
スロップ (英:slop)と呼ばれる用語は人工知能によって粗製濫造されるスパム に似たコンテンツに対して使用される。ニューヨークタイムズ によれば、スロップとは「ソーシャルメディア、アート、書籍、検索結果に表示される粗悪な、または望ましくないAIコンテンツ」である[ 97] 。
生成AIによって新たに生じる問題として指摘されているのは、ソーシャルメディア上の低品質な生成AIコンテンツに対するモデレーション[ 98] 、金銭を得る目的で低品質なコンテンツを投稿する悪質なユーザーの増加[ 98] [ 99] 、政治的な偽情報[ 99] 、スパム的に投稿される科学論文[ 100] 、インターネット上で高品質あるいは求めるコンテンツを見つけるための時間と労力の増加[ 101] 、検索エンジン上の生成コンテンツの増加[ 102] などがあり、ジャーナリズムの存続自体への懸念も表明されている[ 103] 。
Amazon Web Services AI Labsの研究者らが発表した論文によると、ウェブページのスナップショットであるCommon Crawl の60億以上の文章のサンプルのうち、57%以上の文章が機械翻訳されていた。これらの自動翻訳の多くは、特に3つ以上の言語に翻訳された文章については、品質が低いとみなされた。リソースの少ない言語(例:ウォロフ語 、コサ語 )の多くは、リソースの多い言語(例:英語 、フランス語 )よりも多くの言語に翻訳されていた[ 104] [ 105] 。
AI技術の発展により、複数の領域でAIに生成されたコンテンツ増加した。ユニヴァーシティ・カレッジ・ロンドン の調査では、2023年には6万件以上の学術論文(全出版物の1%以上)がLLMの支援を受けて執筆される可能性が高いと推定されている[ 106] 。スタンフォード大学 の人間中心AI研究所によると、現在、新たに出版された情報科学分野の論文の約17.5%と査読文の16.9%に、LLMによって生成されたコンテンツが組み込まれているとしている[ 107] 。
視覚的なコンテンツも同様の傾向を示している。 ストック写真検索サービスEverypixelの統計によれば、2022年にDALL-E が一般公開されて以来、毎日平均3400万枚の画像が作成されたと推定されている。2023年8月時点で、150億枚以上の画像がテキストプロンプトを使用して生成されており、そのうち80%はStable Diffusion に基づくモデルによって作成されていると推定されている[ 108] 。
生成AIモデルの訓練データにAI生成コンテンツが含まれる場合、そのモデルに欠陥が生じる可能性がある[ 109] 。生成AIモデルを別の生成AIモデルの出力のみでトレーニングすると、品質の低いモデルが生成されるため、訓練を繰り返す毎に徐々に品質が低下し、最終的には「モデル崩壊」につながる[ 110] 。これに関しては手書き文字のパターン認識と人間の顔写真を使ったテストが実施されている[ 111] 。
一方、生成AIによって合成されたデータは、現実のデータの代替としてよく使用される。このようなデータは、ユーザーのプライバシーを保護しながら、数学モデルの検証や機械学習モデルの訓練に利用できる[ 112] 。構造化データの場合も同様である[ 113] 。このアプローチはテキスト生成に限定されず、画像生成やコンピュータービジョンモデルの訓練に使用されている[ 114] 。
法規制
アメリカ ではOpenAI 、Alphabet 、Meta を含む企業が2023年7月にホワイトハウス との間でAI生成物に電子透かし を入れる自主協定を締結した[ 115] 。 2023年10月、大統領令14110により国防生産法が適用され、すべての米国企業に対し、大規模AIモデルを訓練する際に連邦政府 に報告することが義務付けられた[ 116] 。
欧州連合 の人工知能法 には生成AIシステムの訓練に使用される著作権保護の対象となるデータを開示すること、およびAI生成物にラベル付けを義務付ける要件が含まれた[ 117] [ 118] 。
中国 では、政府のサイバースペース管理局が導入した生成AIサービス管理のための暫定措置により、生成AIが規制対象となっている。これには、生成された画像やビデオに透かしを入れるための要件、訓練データとラベルの品質に関する規制、個人データの収集に関する制限、生成AIが「社会主義 の中核的価値観を遵守」しなければならないというガイドラインが含まれている[ 119] [ 120] 。
著作権
訓練データの著作権
生成的人工知能を含む機械学習一般に関して、訓練する際に使用するデータセットに含まれる著作物に関して、著作権法の解釈が議論されている[ 122] 。
著作物を機械学習の訓練目的で利用することについては国や地域によって著作物の利用についての法規制は異なっており、各国の法理において機械学習での著作物の利用が認められる範囲に関して広範な論争が為されている。欧州ではDSM指令によって学術目的以外ではオプトアウト により著作物の利用が制限される[ 123] [ 124] 。アメリカでは著作物の利用がフェアユース によって広範に規定されている[ 124] 。日本においては学習段階で行われる著作物の複製に関して著作権法30条の4で複製権の権利制限をしている[ 125] 。また、ベルヌ条約 におけるスリーステップテスト 等の国際条約との関係も議論されている[ 126] 。
生成的人工知能に関する著作権議論
保護技術に処理された画像を追加学習することにより機械学習モデルの精度が低下する(シカゴ大学 の開発したNightshade)[ 127] [ 128] 。
ChatGPT やMidjourney などの生成AIモデルは、著作権で保護された著作物を含む大規模な公開データセットをベースに訓練されている。AI開発者側は、フェアユース 法理を根拠に訓練の合法性を主張しているが、著作権者側は権利侵害を主張している[ 122] 。AI開発者側は、変容的な利用であり、著作物の複製を一般に公開するものではないと主張している[ 122] 。しかし、著作権者側からはMidjourneyなどの画像生成AI は、著作権で保護された画像の一部とほぼ同じ出力が得られるとしており[ 129] 、生成AIモデルは、元の訓練データと競合すると指摘している[ 130] 。
生成AIの訓練に使用される著名なデータセットの1つとして、LAION-5B が挙げられる。これはインターネット からスクレイピングして収集した画像と説明文のペアからなる巨大なデータセットを公開したものであり、Stable Diffusion やMidjourney やNovelAI など有名なtext-to-imageモデル (英語版 ) の基盤データとして用いられている。このデータセットはAI開発者に重宝される一方で、著作権保護の対象となっている画像が含まれており、基本的に権利者の同意なく収集されていることや児童ポルノ などの違法なコンテンツが含まれていることなどから、広く問題視されている[ 131] [ 132] [ 133] [ 134] [ 135] 。
訓練に用いるデータセットに著作物が使われる事例に対して、出版社やクリエイターを中心として懸念が広がっており、米国ではニューヨークタイムズ のマイクロソフト 、OpenAI への訴訟、ユニバーサル・ミュージック のAnthropic への訴訟など著作者や著作権管理団体によるAIの開発、提供事業者への訴訟が提起されている[ 136] [ 137] 。
ワシントンポスト は、ニュース記事を要約するLlama3を基盤とするチャットボットであるMetaAIが、直接の出典なしに記事から文章をコピーし、オンラインニュースメディアのトラフィックを減少させる可能性があると指摘した[ 138] 。
フランス の競争委員会(日本における公正取引委員会 )は報道記事の使用料に関してメディアとの交渉を十分に行わなかったため21年に制裁金をGoogle に課したが、その際にGoogleが約束した報酬算出の情報開示などが不十分であったとして2億5000万ユーロ(約410億円)の制裁金を課した。またこの際に、同社のチャットボットAI「Gemini 」の開発に際して「メディアや競争委員会に知らせず報道機関や出版社のコンテンツを利用していた」と批判した[ 139] 。
日本
日本の著作権法30条4 では、『思想又は感情の享受を目的としない場合』かつ『著作権者の利益を不当に害することとならない場合』には原則として著作権者の許諾なく著作物の利用を行うことが可能である[ 140] 。
日本政府の見解として文化庁 は、生成AIの開発学習段階における情報解析は「享受」を目的としない行為としている。一方で、ファインチューニング等によって学習データ(データ群)に対して意図的に「作風などを越えた創作的表現の共通したもの」を生成することを目的とする場合は「享受」の目的が併存すると考えられるとしている。著作権者の利益を不当に害するかどうかは「著作権者の著作物の利用市場と衝突するか」・「将来における著作物の潜在的販路を阻害するか」という観点から「技術の進展」・「著作物の利用態様の変化」等の諸般の事情を総合的に考慮して検討することが必要であるとしている。有償提供されているデータベース著作物(著作権法12条の2 創作性の認められる選択方法や体系化がなされているデータベース)を有償で利用することなく情報解析で利用する行為は明確に抵触しえるとしている[ 140] 。
また文化庁は、生成AIを用いたAI生成物の生成・利用の段階に関しては通常の著作物と同様に、既存著作物との依拠性、類似性によって著作権の侵害の有無を判断するとしている[ 140] 。
生成物の著作権
アメリカ合衆国著作権局 がAIによって生成された絵の部分に限定して著作権登録を拒絶した漫画『Zarya of the Dawn』[ 141]
AIによって生成された生成物を著作物として認めるかどうかについて、人間の介在の有無や人間の関与の度合いによってどのように線引きをするのか、そもそも著作物として認めるべきなのか議論がなされている。
アメリカ
アメリカ合衆国著作権局 は、人間の介入なしに人工知能によって作成された作品は、人間の著作者がいないため著作権を保護できないとの評定を下した[ 142] 。米国著作権局は、この方針を改訂する必要があるかどうかを判断するために、意見の収集を進めている[ 143] 。
日本
僭称著作物問題
一般的に人間による創作的寄与のないAI生成物を著作権法 で保護することはできない。生成AIの進歩によって、一見すると人間が創作したのかAIが生成したのかを容易に判断できないコンテンツが増えることで、本来著作権が付与されないAI生成物を人間が創作したものであると明示的、あるいは黙示的に偽る問題が起こりうる。この僭称著作物問題(僭称コンテンツ問題)によって、AI利用者による知的財産権 の不正な独占、僭称が発覚した場合のライセンス契約やコンテンツビジネスの崩壊などのリスクが指摘されている。AI利用者による僭称行為の対策として、現行法でも債務不履行 責任や不法行為 責任等の民法 上の責任及び詐欺罪 の成立可能性が指摘されている他、著作権法121条の改正による刑事罰 化も検討されている[ 144] [ 145] [ 146] 。
文化庁の見解
AI生成物が著作物か該当するかどうかは著作権法第2条 「思想又は感情を創作的に表現したもの」かつ「自然人若しくは法人の作製したもの」に当たるかどうかで判断される。文化庁はこれに関して、AIが自律的に生成したものでなく、人が思想又は感情を創作的に表現するための「道具」としてAIを使用した場合には著作物に該当し、AI利用者が著作者となると考えられるとしており、これらの判断は個々のAI生成物について、個別具体的な事情に応じて判断されるとしている[ 93] 。
出典
^ “生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について ”. utelecon . 2023年7月1日 閲覧。
^ “生成AI(Generative AI)のビジネスへの影響|Deloitte AI Institute|Deloitte ”. デロイト・メンバーファーム . 2023年7月1日 閲覧。
^ “Nature読者のChatGPT利用法 | Nature ダイジェスト | Nature Portfolio ”. www.natureasia.com . 2023年7月1日 閲覧。
^ “生成AIモデル:ビジネスにおけるリスクおよび潜在的なリターン - KPMGジャパン ”. KPMG (2023年5月30日). 2023年7月1日 閲覧。
^ a b “Anthropic Said to Be Closing In on $300 Million in New A.I. Funding ”. en:The New York Times (2023年1月27日). 2023年3月14日 閲覧。
^ Lanxon, Nate; Bass, Dina; Davalos, Jackie (March 10, 2023). “A Cheat Sheet to AI Buzzwords and Their Meanings” . Bloomberg News . https://news.bloomberglaw.com/tech-and-telecom-law/a-cheat-sheet-to-ai-buzzwords-and-their-meanings-quicktake March 14, 2023 閲覧。
^ Pasick, Adam (2023年3月27日). “Artificial Intelligence Glossary: Neural Networks and Other Terms Explained” (英語). The New York Times . ISSN 0362-4331 . https://www.nytimes.com/article/ai-artificial-intelligence-glossary.html 2023年4月22日 閲覧。
^ “Generative models ”. OpenAI (2016年6月16日). 2023年5月20日 閲覧。
^ Metz, Cade. "OpenAI Unveils GPT-4, Months After ChatGPT Stunned Silicon Valley." The New York Times, March 14, 2023, https://www.nytimes.com/2023/03/14/technology/openai-gpt4-chatgpt.html
^ Thoppilan, Romal; De Freitas, Daniel; Hall, Jamie; Shazeer, Noam; Kulshreshtha, Apoorv; Cheng, Heng-Tze; Jin, Alicia; Bos, Taylor; Baker, Leslie; Du, Yu; Li, YaGuang; Lee, Hongrae; Zheng, Huaixiu Steven; Ghafouri, Amin; Menegali, Marcelo; Huang, Yanping; Krikun, Maxim; Lepikhin, Dmitry; Qin, James; Chen, Dehao; Xu, Yuanzhong; Chen, Zhifeng; Roberts, Adam; Bosma, Maarten; Zhao, Vincent; Zhou, Yanqi; Chang, Chung-Ching; Krivokon, Igor; Rusch, Will; Pickett, Marc; Srinivasan, Pranesh; Man, Laichee; Meier-Hellstern, Kathleen; Ringel Morris, Meredith; Doshi, Tulsee; Delos Santos, Renelito; Duke, Toju; Soraker, Johnny; Zevenbergen, Ben; Prabhakaran, Vinodkumar; Diaz, Mark; Hutchinson, Ben; Olson, Kristen; Molina, Alejandra; Hoffman-John, Erin; Lee, Josh; Aroyo, Lora; Rajakumar, Ravi; Butryna, Alena; Lamm, Matthew; Kuzmina, Viktoriya; Fenton, Joe; Cohen; Aaron; Bernstein, Rachel; Kurzweil, Ray; Aguera-Arcas, Blaise; Cui, Claire; Croak, Marian; Chi, Ed; Le, Quoc (20 January 2022). "LaMDA: Language Models for Dialog Applications". arXiv :2201.08239 [cs.CL ]。
^ Roose, Kevin (2022年10月21日). “A Coming-Out Party for Generative A.I., Silicon Valley's New Craze ”. The New York Times . 2023年3月14日 閲覧。
^ “Don't fear an AI-induced jobs apocalypse just yet ”. The Economist (2023年3月6日). 2023年3月14日 閲覧。
^ “Generative AI: Unlocking the future of fashion ”. 2023年3月14日 閲覧。
^ “The race of the AI labs heats up ”. The Economist (2023年1月30日). 2023年3月14日 閲覧。
^ “Google Cloud brings generative AI to developers, businesses, and governments ” (2023年3月14日). 2023年3月15日 閲覧。
^ Justin Hendrix (May 16, 2023). “Transcript: Senate Judiciary Subcommittee Hearing on Oversight of AI ”. techpolicy.press . May 19, 2023 閲覧。
^ “「チャットGPT」にEUが要求:情報源を開示せよ ”. The Wall Street Journal . 2023年4月28日 閲覧。
^ "Artists are alarmed by AI — and they're fighting back" . The Washington Post (英語). 2023年2月18日閲覧 。
^ “ChatGPT and the EU AI Act ”. mhc.ie . Mason Hayes & Curran. 29 November 2023 閲覧。
^ Chee, Foo Yun; Mukherjee, Supantha (June 14, 2023). “EU lawmakers vote for tougher AI rules as draft moves to final stage” (英語). https://www.reuters.com/technology/eu-lawmakers-agree-changes-draft-artificial-intelligence-rules-2023-06-14/ July 26, 2023 閲覧。
^ Jones, Rachyl (2023年10月16日). “Marc Andreessen just dropped a 'Techno-Optimist Manifesto' that sees a world of 50 billion people settling other planets ”. Fortune . 28 November 2023時点のオリジナルよりアーカイブ 。2023年11月26日 閲覧。
^ “finetune-transformer-lm ”. GitHub . 2023年5月19日 閲覧。
^ Radford, Alec; Wu, Jeffrey; Child, Rewon; Luan, David; Amodei, Dario; Sutskever, Ilya; others (2019). “Language models are unsupervised multitask learners”. OpenAI blog 1 (8): 9.
^ “Hopes for 2024 from Anastasis Germanidis, Sara Hooker, Percy Liang, Sasha Luccioni, Pelonomi Moiloa, Kevin Scott ” (英語). Hopes for 2024 from Anastasis Germanidis, Sara Hooker, Percy Liang, Sasha Luccioni, Pelonomi Moiloa, Kevin Scott (2023年12月27日). 2023年12月28日 閲覧。
^ “10 Breakthrough Technologies 2025 ” (英語). MIT Technology Review . 2025年1月9日 閲覧。
^ “Generative AI search: 10 Breakthrough Technologies 2025 ” (英語). MIT Technology Review . 2025年1月9日 閲覧。
^ “AI means the end of internet search as we’ve known it ” (英語). MIT Technology Review . 2025年1月9日 閲覧。
^ a b https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/
^ Bommasani, R; Hudson, DA; Adeli, E; Altman, R; Arora, S; von Arx, S; Bernstein, MS; Bohg, J; Bosselut, A; Brunskill, E; Brynjolfsson, E (16 August 2021). "On the opportunities and risks of foundation models". arXiv :2108.07258 [cs.LG ]。
^ Chen, Ming; Tworek, Jakub; Jun, Hongyu; Yuan, Qinyuan; Pinto, Hanyu Philippe De Oliveira; Kaplan, Jerry; Edwards, Haley; Burda, Yannick; Joseph, Nicholas; Brockman, Greg; Ray, Alvin (6 July 2021). "Evaluating Large Language Models Trained on Code". arXiv :2107.03374 [cs.LG ]。
^ Ramesh, Aditya; Pavlov, Mikhail; Goh, Gabriel; Gray, Scott; Voss, Chelsea; Radford, Alec; Chen, Mark; Sutskever, Ilya (2021). "Zero-shot text-to-image generation". International Conference on Machine Learning . PMLR. pp. 8821–8831.
^ Heaven, Will Douglas (2023年2月15日). “AI is dreaming up drugs that no one has ever seen. Now we've got to see if they work ”. MIT Technology Review . Massachusetts Institute of Technology. 2023年3月15日 閲覧。
^ Agostinelli, Andrea; Denk, Timo I.; Borsos, Zalán; Engel, Jesse; Verzetti, Mauro; Caillon, Antoine; Huang, Qingqing; Jansen, Aren; Roberts, Adam; Tagliasacchi, Marco; Sharifi, Matt; Zeghidour, Neil; Frank, Christian (26 January 2023). "MusicLM: Generating Music From Text". arXiv :2301.11325 [cs.SD ]。
^ Metz, Cade (April 4, 2023). “Instant Videos Could Represent the Next Leap in A.I. Technology ” (英語). The New York Times . 2023年4月30日 閲覧。
^ Queenie Wong (Sep 29, 2022). “Facebook Parent Meta's AI Tool Can Create Artsy Videos From Text ”. cnet.com. Apr 4, 2023 閲覧。
^ Sherry Yang, Yilun Du (2023年4月12日). “UniPi: Learning universal policies via text-guided video generation ”. Google Research, Brain Team . Google AI Blog. 2023年5月24日 閲覧。
^ “広島AIプロセスについて ”. 総務省. 2024年3月7日 閲覧。
^ “Secretary-General's remarks to the Security Council on Artificial Intelligence ”. un.org (18 July 2023). 27 July 2023 閲覧。
^ “G7 : 教皇「AIが善を築くための道具ならば、常にすべての人の善のために」 ”. バチカンニュース (2024年6月14日). 2024年6月19日 閲覧。
^ “The Writers Strike Is Taking a Stand on AI” (英語). Time . (4 May 2023). https://time.com/6277158/writers-strike-ai-wga-screenwriting/ 11 June 2023 閲覧。 .
^ Tarnoff, Ben (4 August 2023). “Lessons from Eliza”. The Guardian Weekly : pp. 34–39
^ a b “TV channels are using AI-generated presenters to read the news. The question is, will we trust them? ” (英語). BBC News (2024年1月26日). 2024年1月26日時点のオリジナル よりアーカイブ。2024年5月24日 閲覧。
^ a b Tait, Amelia (2023年10月20日). “‘Here is the news. You can’t stop us’: AI anchor Zae-In grants us an interview” (英語). The Guardian . ISSN 0261-3077 . オリジナル の2024年1月28日時点におけるアーカイブ。. https://web.archive.org/web/20240128155805/https://www.theguardian.com/tv-and-radio/2023/oct/20/here-is-the-news-you-cant-stop-us-ai-anchor-zae-in-grants-us-an-interview 2024年5月24日 閲覧。
^ a b Kuo, Lily (2018年11月9日). “World's first AI news anchor unveiled in China” (英語). The Guardian . ISSN 0261-3077 . オリジナル の2024年2月20日時点におけるアーカイブ。. https://web.archive.org/web/20240220133227/https://www.theguardian.com/world/2018/nov/09/worlds-first-ai-news-anchor-unveiled-in-china 2024年5月24日 閲覧。
^ Zhou, Viola (2023年4月11日). “AI is already taking video game illustrators' jobs in China ” (英語). Rest of World . 2023年8月17日 閲覧。
^ Carter, Justin (2023年4月11日). “China's game art industry reportedly decimated by growing AI use ” (英語). Game Developer . 2023年8月17日 閲覧。
^ Collier, Kevin (July 14, 2023). “Actors vs. AI: Strike brings focus to emerging use of advanced tech ”. NBC News. 2024年3月6日 閲覧。
^ Wiggers, Kyle (2023年8月22日). “ElevenLabs' voice-generating tools launch out of beta ” (英語). TechCrunch . 2023年9月25日 閲覧。
^ Shrivastava, Rashi. “'Keep Your Paws Off My Voice': Voice Actors Worry Generative AI Will Steal Their Livelihoods ” (英語). Forbes . 2023年11月28日 閲覧。
^ 生成AIで関東大震災「新証言」を作成…「捏造」批判受け日赤の企画展中止 読売新聞 2023年9月3日
^ “生成AIに高校スポーツ記事を書かせた大手新聞社、誤りや品質の苦情続き一時取り下げ。所属記者も「掲載すべきでなかった」と発言 ”. 2023年9月27日時点のオリジナル よりアーカイブ。2024年1月8日 閲覧。
^ “People Are Still Terrible: AI Voice-Cloning Tool Misused for Deepfake Celeb Clips ” (英語). PCMag Middle East (2023年1月31日). 2023年7月25日 閲覧。
^ “The generative A.I. software race has begun ” (英語). Fortune . 2023年2月3日 閲覧。
^ Milmo, Dan; Hern, Alex (2023年5月20日). “Elections in UK and US at risk from AI-driven disinformation, say experts” (英語). The Guardian . ISSN 0261-3077 . https://www.theguardian.com/technology/2023/may/20/elections-in-uk-and-us-at-risk-from-ai-driven-disinformation-say-experts 2023年7月25日 閲覧。
^ “Seeing is believing? Global scramble to tackle deepfakes ” (英語). news.yahoo.com . 2023年2月3日 閲覧。
^ Vincent, James (January 31, 2023). “4chan users embrace AI voice clone tool to generate celebrity hatespeech ” (英語). The Verge . 2023年2月3日 閲覧。
^ Thompson, Stuart A. (2023年3月12日). “Making Deepfakes Gets Cheaper and Easier Thanks to A.I.” (英語). The New York Times . ISSN 0362-4331 . https://www.nytimes.com/2023/03/12/technology/deepfakes-cheapfakes-videos-ai.html 2023年7月25日 閲覧。
^ “A new AI voice tool is already being abused to make deepfake celebrity audio clips ” (英語). Engadget (January 31, 2023). 2023年2月3日 閲覧。
^ 越前巧、馬場口登、笹原和俊「インフォデミック時代におけるフェイクメディア克服の最前線」『人工知能』人工知能学界 2023年3月号 pp.189 - 196
^ “These ISIS news anchors are AI fakes. Their propaganda is real. ”. Washington Post (2024年5月17日). 2024年5月19日時点のオリジナル よりアーカイブ。2024年5月24日 閲覧。
^ “A magazine touted Michael Schumacher's first interview in years. It was actually AI” . NPR . (28 April 2023). オリジナル のJune 17, 2023時点におけるアーカイブ。. https://web.archive.org/web/20230617222319/https://www.npr.org/2023/04/28/1172473999/michael-schumacher-ai-interview-german-magazine 17 June 2023 閲覧。
^ Mullin, Benjamin; Grant, Nico (2023年7月20日). “Google Tests A.I. Tool That Is Able to Write News Articles” (英語). The New York Times . ISSN 0362-4331 . オリジナル の2024年5月16日時点におけるアーカイブ。. https://web.archive.org/web/20240516135925/https://www.nytimes.com/2023/07/19/business/google-artificial-intelligence-news-articles.html 2024年5月24日 閲覧。
^ Sjouwerman, Stu (2022年12月26日). “Deepfakes: Get ready for phishing 2.0” . Fast Company . https://www.fastcompany.com/90829233/deepfakes-get-ready-for-phishing-2-0 2023年7月31日 閲覧。
^ Collinson, Patrick (2023年7月15日). “Fake reviews: can we trust what we read online as use of AI explodes?” (英語). The Guardian . ISSN 0261-3077 . https://www.theguardian.com/money/2023/jul/15/fake-reviews-ai-artificial-intelligence-hotels-restaurants-products 2023年12月6日 閲覧。
^ “After WormGPT, FraudGPT Emerges to Help Scammers Steal Your Data ” (英語). PCMAG . 2023年7月31日 閲覧。
^ Sonnemaker, Tyler. “As social media platforms brace for the incoming wave of deepfakes, Google's former 'fraud czar' predicts the biggest danger is that deepfakes will eventually become boring ” (英語). Business Insider . 2023年7月31日 閲覧。
^ Gupta, Maanak; Akiri, Charankumar; Aryal, Kshitiz; Parker, Eli; Praharaj, Lopamudra (2023). “From ChatGPT to ThreatGPT: Impact of Generative AI in Cybersecurity and Privacy”. IEEE Access 11 : 80218–80245. arXiv :2307.00691 . Bibcode : 2023IEEEA..1180218G . doi :10.1109/ACCESS.2023.3300381 .
^ “Definition of HALLUCINATION ” (英語). www.merriam-webster.com (2023年10月21日). 2023年10月29日 閲覧。
^ Joshua Maynez; Shashi Narayan; Bernd Bohnet; Ryan McDonald (2020). "On Faithfulness and Factuality in Abstractive Summarization" . Proceedings of The 58th Annual Meeting of the Association for Computational Linguistics (ACL) (2020) . arXiv :2005.00661 . 2023年9月26日閲覧 。
^ Metz, Cade (6 November 2023). “Chatbots May 'Hallucinate' More Often Than Many Realize” . The New York Times . https://www.nytimes.com/2023/11/06/technology/chatbots-hallucination-rates.html
^ de Wynter, Adrian; Wang, Xun; Sokolov, Alex; Gu, Qilong; Chen, Si-Qing (2023-07-13). “An evaluation on large language model outputs: Discourse and memorization”. Natural Language Processing Journal 4 . arXiv :2304.08637 . doi :10.1016/j.nlp.2023.100024 . ISSN 2949-7191 .
^ Uddin, Muhammad Saad (2023年4月20日). “Stochastic Parrots: A Novel Look at Large Language Models and Their Limitations” (英語). https://towardsai.net/p/machine-learning/stochastic-parrots-a-novel-look-at-large-language-models-and-their-limitations 2023年5月12日 閲覧。
^ Weil, Elizabeth (2023年3月1日). “You Are Not a Parrot” . ニューヨーク . https://nymag.com/intelligencer/article/ai-artificial-intelligence-chatbots-emily-m-bender.html 2023年5月12日 閲覧。 .
^ Bender, Emily M.; Gebru, Timnit; McMillan-Major, Angelina; Shmitchell, Shmargaret (2021-03-01). “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜”. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency . FAccT '21. New York, NY, USA: Association for Computing Machinery. pp. 610–623. doi :10.1145/3442188.3445922 . ISBN 978-1-4503-8309-7
^ Hao, Karen (2020年12月4日). “We read the paper that forced Timnit Gebru out of Google. Here’s what it says. ” (英語). MIT Technology Review . 2021年10月6日時点のオリジナルよりアーカイブ 。2022年1月19日 閲覧。
^ “ChatGPTで資料作成、実在しない判例引用 米国の弁護士 ”. 日本経済新聞 (2023年5月31日). 2023年8月15日 閲覧。
^ “ChatGPT: US lawyer admits using AI for case research” (英語). BBC News . (2023年5月27日). https://www.bbc.com/news/world-us-canada-65735769 2023年8月15日 閲覧。
^ Nie, Feng; Yao, Jin-Ge; Wang, Jinpeng; Pan, Rong; Lin, Chin-Yew (July 2019). “A Simple Recipe towards Reducing Hallucination in Neural Surface Realisation” . Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (Association for Computational Linguistics): 2673–2679. doi :10.18653/v1/P19-1256 . https://aclanthology.org/P19-1256.pdf 15 January 2023 閲覧。 .
^ Ji, Ziwei; Jain, Sanjay; Kankanhalli, Mohan (2024). "Hallucination is Inevitable: An Innate Limitation of Large Language Models". arXiv :2401.11817 [cs.CL ]。
^ Dziri, Nouha; Milton, Sivan; Yu, Mo; Zaiane, Osmar; Reddy, Siva (July 2022). “On the Origin of Hallucinations in Conversational Models: Is it the Datasets or the Models?” . Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies . Association for Computational Linguistics. pp. 5271–5285. doi :10.18653/v1/2022.naacl-main.387 . https://aclanthology.org/2022.naacl-main.387.pdf 15 January 2023 閲覧。
^ Preiksaitis, Carl; Rose, Christian (2023-10-20). “Opportunities, Challenges, and Future Directions of Generative Artificial Intelligence in Medical Education: Scoping Review” (英語). JMIR Medical Education 9 (1): e48785. doi :10.2196/48785 . PMC PMC10625095 . PMID 37862079 . https://mededu.jmir.org/2023/1/e48785 .
^ Dergaa, Ismail; Chamari, Karim; Zmijewski, Piotr; Saad, Helmi Ben (2023). “From human writing to artificial intelligence generated text: examining the prospects and potential threats of ChatGPT in academic writing” (english). Biology of Sport 40 (2): 615–622. doi :10.5114/biolsport.2023.125623 . ISSN 0860-021X . PMC PMC10108763 . PMID 37077800 . https://www.termedia.pl/From-human-writing-to-artificial-intelligence-generated-text-examining-the-prospects-and-potential-threats-of-ChatGPT-in-academic-writing,78,50268,0,1.html .
^ Rachel Gordon (March 3, 2023). “Large language models are biased. Can logic help save them? ”. MIT CSAIL . 2024年1月26日 閲覧。
^ OpenAI (2022年7月18日). “Reducing bias and improving safety in DALL·E 2 ”. OpenAI. 2024年1月26日 閲覧。
^ Jake Traylor (July 27, 2022). “No quick fix: How OpenAI's DALL·E 2 illustrated the challenges of bias in AI ”. NBC News . 2024年1月26日 閲覧。
^ “DALL·E 2 pre-training mitigations ”. OpenAI (2022年6月28日). 2024年1月26日 閲覧。
^ Metz, Cade (July 10, 2023). “In the Age of A.I., Tech's Little Guys Need Big Friends” . New York Times . https://www.nytimes.com/2023/07/05/business/artificial-intelligence-power-data-centers.html
^ a b c d e Crawford, Kate (2024-02-20). “Generative AI's environmental costs are soaring — and mostly secret” (英語). Nature 626 (8000): 693. doi :10.1038/d41586-024-00478-x . PMID 38378831 . オリジナル の2024-08-22時点におけるアーカイブ。. https://web.archive.org/web/20240822050528/https://www.nature.com/articles/d41586-024-00478-x .
^ a b c d Rogers, Reece. “AI's Energy Demands Are Out of Control. Welcome to the Internet's Hyper-Consumption Era” (英語). Wired . ISSN 1059-1028 . オリジナル の2024-08-14時点におけるアーカイブ。. https://web.archive.org/web/20240814171438/https://www.wired.com/story/ai-energy-demands-water-impact-internet-hyper-consumption-era/ 2024年8月27日 閲覧。 .
^ a b c d “AI is an energy hog. This is what it means for climate change. ” (英語). MIT Technology Review (2024年5月23日). 2024年8月20日時点のオリジナル よりアーカイブ。2024年8月27日 閲覧。
^ a b c d Saenko, Kate (2023年5月23日). “Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins ” (英語). The Conversation . 2024年7月1日時点のオリジナル よりアーカイブ。2024年8月27日 閲覧。
^ a b Lohr, Steve (2024年8月26日). “Will A.I. Ruin the Planet or Save the Planet?” (英語). The New York Times . ISSN 0362-4331 . オリジナル の2024年8月26日時点におけるアーカイブ。. https://web.archive.org/web/20240826113905/https://www.nytimes.com/2024/08/26/climate/ai-planet-climate-change.html 2024年8月27日 閲覧。
^ a b c Bender, Emily M.; Gebru, Timnit; McMillan-Major, Angelina; Shmitchell, Shmargaret (2021-03-01). “On the Dangers of Stochastic Parrots: Can Language Models be Too Big? 🦜” . Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency . FAccT '21. New York, NY, USA: Association for Computing Machinery. pp. 610–623. doi :10.1145/3442188.3445922 . ISBN 978-1-4503-8309-7 . https://dl.acm.org/doi/10.1145/3442188.3445922
^ a b c d e f g Dhar, Payal (2020-08-01). “The carbon impact of artificial intelligence” (英語). Nature Machine Intelligence 2 (8): 423–425. doi :10.1038/s42256-020-0219-9 . ISSN 2522-5839 . オリジナル の2024-08-14時点におけるアーカイブ。. https://web.archive.org/web/20240814145516/https://www.nature.com/articles/s42256-020-0219-9 .
^ Halper, Evan; O'Donovan, Caroline (21 June 2024). “AI is exhausting the power grid. Tech firms are seeking a miracle solution.” (英語). Washington Post . https://www.washingtonpost.com/business/2024/06/21/artificial-intelligence-nuclear-fusion-climate/?utm_campaign=wp_post_most&utm_medium=email&utm_source=newsletter&wpisrc=nl_most&carta-url=https%3A%2F%2Fs2.washingtonpost.com%2Fcar-ln-tr%2F3e0d678%2F6675a2d2c2c05472dd9ec0f4%2F596c09009bbc0f20865036e7%2F12%2F52%2F6675a2d2c2c05472dd9ec0f4
^ Pearson, Jordan (February 15, 2024). “Scientific Journal Publishes AI-Generated Rat with Gigantic Penis In Worrying Incident ”. Vice Media . 15 February 2024時点のオリジナルよりアーカイブ 。February 15, 2024 閲覧。
^ Hoffman, Benjamin (2024年6月11日). “First Came 'Spam.' Now, With A.I., We've Got 'Slop'” (英語). The New York Times . ISSN 0362-4331 . オリジナル の2024年8月26日時点におけるアーカイブ。. https://web.archive.org/web/20240826111040/https://www.nytimes.com/2024/06/11/style/ai-search-slop.html 2024年8月27日 閲覧。
^ a b “Investigation Finds Actual Source of All That AI Slop on Facebook ”. Futurism (2024年8月10日). 2024年8月15日時点のオリジナル よりアーカイブ。2024年8月27日 閲覧。
^ a b Warzel, Charlie (2024年8月21日). “The MAGA Aesthetic Is AI Slop ” (英語). The Atlantic . 2024年8月25日時点のオリジナル よりアーカイブ。2024年8月27日 閲覧。
^ Edwards, Benj (2024年8月14日). “Research AI model unexpectedly attempts to modify its own code to extend runtime ” (英語). Ars Technica . 2024年8月24日時点のオリジナル よりアーカイブ。2024年8月27日 閲覧。
^ Hern, Alex; Milmo, Dan (2024年5月19日). “Spam, junk … slop? The latest wave of AI behind the 'zombie internet'” (英語). The Guardian . ISSN 0261-3077 . オリジナル の2024年8月26日時点におけるアーカイブ。. https://web.archive.org/web/20240826142358/https://www.theguardian.com/technology/article/2024/may/19/spam-junk-slop-the-latest-wave-of-ai-behind-the-zombie-internet 2024年8月27日 閲覧。
^ Cox, Joseph (2024年1月18日). “Google News Is Boosting Garbage AI-Generated Articles ” (英語). 404 Media . 2024年6月13日時点のオリジナル よりアーカイブ。2024年8月27日 閲覧。
^ “Beloved Local Newspapers Fired Staffers, Then Started Running AI Slop ”. Futurism (2024年7月31日). 2024年8月12日時点のオリジナル よりアーカイブ。2024年8月27日 閲覧。
^ Thompson, Brian; Dhaliwal, Mehak; Frisch, Peter; Domhan, Tobias; Federico, Marcello (August 2024). Ku, Lun-Wei; Martins, Andre; Srikumar, Vivek. eds. “A Shocking Amount of the Web is Machine Translated: Insights from Multi-Way Parallelism” . Findings of the Association for Computational Linguistics ACL 2024 (Bangkok, Thailand and virtual meeting: Association for Computational Linguistics): 1763–1775. https://aclanthology.org/2024.findings-acl.103/ .
^ Roscoe, Jules (2024年1月17日). “A 'Shocking' Amount of the Web Is Already AI-Translated Trash, Scientists Determine ” (英語). VICE . 2024年7月1日時点のオリジナル よりアーカイブ。2024年8月27日 閲覧。
^ Gray, Andrew (24 March 2024). "ChatGPT "contamination": estimating the prevalence of LLMs in the scholarly literature". arXiv :2403.16887 [cs.DL ]。
^ “How Much Research Is Being Written by Large Language Models? ” (英語). Human-Centered Artificial Intelligence . Stanford University (13 May 2024). 16 August 2024 閲覧。
^ Valyaeva, Alina (15 August 2023). “AI Image Statistics for 2024: How Much Content Was Created by AI ”. Everypixel Journal . 16 August 2024 閲覧。
^ Shumailov, Ilia; Shumaylov, Zakhar; Zhao, Yiren; Papernot, Nicolas; Anderson, Ross; Gal, Yarin (July 2024). “AI models collapse when trained on recursively generated data” (英語). Nature 631 (8022): 755–759. doi :10.1038/s41586-024-07566-y . PMC 11269175 . PMID 39048682 . https://www.ncbi.nlm.nih.gov/pmc/articles/PMC11269175/ .
^ Bhatia, Aatish (2024年8月26日). “When A.I.'s Output Is a Threat to A.I. Itself” (英語). The New York Times . ISSN 0362-4331 . https://www.nytimes.com/interactive/2024/08/26/upshot/ai-synthetic-data.html?te=1&nl=the-morning&emc=edit_nn_20240826 2024年8月27日 閲覧。
^ “Self-Consuming Generative Models Go Mad” . ICLR . (2024). https://openreview.net/pdf?id=ShjMHfmPs0 .
^ Owen, Sean (2023年4月12日). “Synthetic Data for Better Machine Learning ”. databricks.com . January 3, 2024時点のオリジナルよりアーカイブ 。2024年1月4日 閲覧。
^ Sharma, Himanshu (2023年7月11日). “Synthetic Data Platforms: Unlocking the Power of Generative AI for Structured Data ”. kdnuggets.com . January 3, 2024時点のオリジナルよりアーカイブ 。2024年1月4日 閲覧。
^ Stöckl, Andreas (2 November 2022). "Evaluating a Synthetic Image Dataset Generated with Stable Diffusion". arXiv :2211.01777 [cs.CV ]。
^ Bartz, Diane; Hu, Krystal (July 21, 2023). “OpenAI, Google, others pledge to watermark AI content for safety, White House says” . Reuters . https://www.reuters.com/technology/openai-google-others-pledge-watermark-ai-content-safety-white-house-2023-07-21/
^ “FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence ”. The White House (2023年10月30日). 2024年1月30日 閲覧。
^ “ChatGPT and the EU AI Act ”. mhc.ie . Mason Hayes & Curran. 29 November 2023 閲覧。
^ Chee, Foo Yun; Mukherjee, Supantha (June 14, 2023). “EU lawmakers vote for tougher AI rules as draft moves to final stage” (英語). https://www.reuters.com/technology/eu-lawmakers-agree-changes-draft-artificial-intelligence-rules-2023-06-14/ July 26, 2023 閲覧。
^ Ye, Josh (2023年7月13日). “China says generative AI rules to apply only to products for the public ”. Reuters . 2023年7月13日 閲覧。
^ “生成式人工智能服务管理暂行办法 ” (中国語). 国家インターネット情報弁公室 (中国語版 ) (2023年7月13日). 2024年10月7日 閲覧。
^ Carlini, Nicholas and Hayes, Jamie and Nasr, Milad and Jagielski, Matthew and Sehwag, Vikash and Tram\`{e}r, Florian and Balle, Borja and Ippolito, Daphne and Wallace, Eric (2023). “Extracting training data from diffusion models” . SEC '23: Proceedings of the 32nd USENIX Conference on Security Symposium : 5253–5270. https://dl.acm.org/doi/10.5555/3620237.3620531 .
^ a b c “Generative Artificial Intelligence and Copyright Law ”. Congressional Research Service (2023年9月29日). March 22, 2024時点のオリジナルよりアーカイブ 。2024年1月30日 閲覧。
^ "Directive (EU) 2019/790 of the European Parliament and of the Council of 17 April 2019 on copyright and related rights in the Digital Single Market and amending Directives 96/9/EC and 2001/29/EC (Text with EEA relevance.)". Act of 17 April 2019 . The European Parliament & Council of the European Union. 条文の邦訳は公益社団法人著作権情報センターHPを参照。https://www.cric.or.jp/db/world/EU/EU_02a.html
^ a b “生成AIに関する各国の対応について ”. 文化庁. 2024年1月10日 閲覧。
^ “著作権法 | e-Gov法令検索 ”. elaws.e-gov.go.jp . 2024年1月14日 閲覧。
^ https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/hoseido/r05_07/pdf/94011401_10.pdf
^ The University of Chicago, Department of Computer Science (2024). Nightshade: Data Poisoning to Fight Generative AI with Ben Zhao; Department of Computer Science (Report) (英語).
^ SAND LAB, UNIVERSITY OF CHICAGO (2024). What Is Nightshade? (Report) (英語).
^ Thompson, Stuart (January 25, 2024). “We Asked A.I. to Create the Joker. It Generated a Copyrighted Image. ”. The New York Times . January 25, 2024時点のオリジナルよりアーカイブ 。January 26, 2024 閲覧。
^ Hadero, Haleluya; Bauder, David (December 27, 2023). “The New York Times sues OpenAI and Microsoft for using its stories to train chatbots” . Associated Press News (AP News). オリジナル のDecember 27, 2023時点におけるアーカイブ。. https://web.archive.org/web/20231227150436/https://apnews.com/article/nyt-new-york-times-openai-microsoft-6ea53a8ad3efa06ee4643b697df0ba57 April 13, 2023 閲覧。
^ “A Photographer Tried to Get His Photos Removed from an AI Dataset. He Got an Invoice Instead. ” (英語). Vice (2023年4月28日). 2023年5月4日 閲覧。
^ “事件・事故の犠牲者の顔写真、生成AIが無断使用…遺族「使うのやめて」・識者「尊厳にかかわる」 ”. 読売新聞オンライン . 読売新聞 (2024年4月7日). 2024年5月12日 閲覧。
^ “Largest Dataset Powering AI Images Removed After Discovery of Child Sexual Abuse Material ” (英語). 404 Media (2023年12月20日). 2023年12月22日 閲覧。
^ “Class Action Filed Against Stability AI, Midjourney, and DeviantArt for DMCA Violations, Right of Publicity Violations, Unlawful Competition, Breach of TOS ”. PR Newswire . Cision (2023年1月14日). 2024年5月12日 閲覧。
^ Edwards, Benj (2022年9月15日). “Have AI image generators assimilated your art? New tool lets you check” . Ars Technica . https://arstechnica.com/information-technology/2022/09/have-ai-image-generators-assimilated-your-art-new-tool-lets-you-check/
^ NYT v. Microsoft, OpenAI (1:23-cv-11195 , 12/27/23)
^ https://wired.jp/article/tiktok-universal-music-group-umg-remove-songs/
^ Kelly, Heather (2024年5月22日). “Meta walked away from news. Now the company’s using it for AI content.” (英語). Washington Post . ISSN 0190-8286 . オリジナル の2024年5月22日時点におけるアーカイブ。. https://archive.today/20240522100421/https://www.washingtonpost.com/technology/2024/05/22/meta-ai-news-summaries/ 2024年5月24日 閲覧。
^ https://www.nikkei.com/article/DGXZQOGR204920Q4A320C2000000
^ a b c “文化審議会著作権分科会法制度小委員会「AIと著作権に関する考え方について」【概要】 ”. 文化庁著作権課. 2024年5月 閲覧。
^ United States Copyright Office (2023). 2023.02.21 Zarya of the Dawn Letter (PDF) (Report) (英語).
^ Brittain, Blake (August 21, 2023). “AI-generated art cannot receive copyrights, US court says ”. Reuters . January 20, 2024時点のオリジナルよりアーカイブ 。January 19, 2024 閲覧。
^ David, Emilla (August 29, 2023). “US Copyright Office wants to hear what people think about AI and copyright ”. The Verge . January 19, 2024時点のオリジナルよりアーカイブ 。January 19, 2024 閲覧。
^ “「AIと著作権に関する考え方について(素案)」に対する意見書 ”. 日本弁護士連合会 (2024年2月16日). 2024年10月3日 閲覧。
^ 奥邨弘司 (2017年). “人工知能が生み出したコンテンツと著作権 〜著作物性を中心に〜 ”. 月刊パテント . 日本弁理士会 . 2024年10月3日 閲覧。
^ 愛知靖之 (2020年). “Al生成物・機械学習と著作権法 ”. 別冊パテント . 日本弁理士会 . 2024年10月3日 閲覧。
関連項目