寄せられた提案コメントAI要約
このセクションに対して寄せられた変更提案を、AIが要約しました。類似した内容の提案が1つのトピックに集約されています。
AIによる核融合廃棄物処分地の選定プロセスを確立する
核融合発電の実装に伴い発生する低レベル放射性廃棄物の最終処分地選定において、AIを用いた客観的な分析と選定プロセスを確立し、その情報を公開することで国民との合意形成を図る。
AI統治原則とアルゴリズム基本権を定義する
AIの判断の限界や人間が関与すべき領域、責任の所在を明確にする「AI統治原則」や「アルゴリズム基本権章典」を策定する。技術の負の側面に向き合う倫理的指針を明文化する。
人文社会科学を再定義し運営費交付金を拡充する
人文・社会科学を「社会、企業、国家を形成するための科学」として再定義し、政策文書に明文化する。あわせて、分野を問わず大学の運営費交付金を大幅に拡充することで、研究者が専門領域に関わらず独創的な探求に専念できる環境を整備し、学問全体の底上げを図る。
提案コメントの一覧(37件)
このセクションに寄せられた皆さまからの変更提案のコメントです。記載内容はAIチャットの会話内容に基づいてAIが要約しています。提案はチームみらいが検討し、採用されると実際にマニフェストに反映されます。
チームみらいのポリシーや利用規約に反する提案は非表示にされることがあります
第1章において、戦略的投資の対象を物理的な技術に限定せず、「基礎研究、人文・社会科学との融合領域や総合的な科学、および各分野の連携」を対象として明記する。また、第2章の運営費交付金の項目において、特定分野に偏らず「総合的な科学の振興や各分野の連携を支えるための基盤であること」を明記する。
理学的な基礎研究や人文・社会科学、それらとの連携が軽視されがちな現状に対し、特定の分野に偏らない総合的な科学振興と、多角的な異分野連携を国家戦略として位置づけるため。
科学技術分野の「AIの安全な活用(リスク管理)」に関連する施策として、以下の4点を追加または修正する。1. AIの学習データに関する国家指針の策定:有害概念を学習させないガイドラインを策定し遵守を求める。倫理的に偏ったAIは『文明の粗大ごみ』や『健全な文明社会を破壊する武器』になりうるという認識で厳格な基準を設ける。2. 倫理的・道徳的な中立性と健全性の設計義務化:開発段階から中立性や多様性の尊重を組み込むことを義務づける。3. 国による監督・評価制度の整備:倫理基準の自己評価と外部監査を制度化し、重大な倫理違反には行政罰、民法、刑法を含む法的責任を問えるよう整備する。4. 啓発活動との連携:教育や広報を通じてAIと倫理の重要性を国民が理解する機会を設ける。
AIの開発・運用における倫理的責任を明確化し、有害な思想の学習抑制や法的責任(罰則の制定)を伴う監督体制、国民の啓発活動を一体として進めることで、AIを永続的な文明の希望として健全に育てる社会を目指すため。
科学技術:ビジョンの末尾に、「生命科学等の先端技術がもたらす革新を最大限に享受しつつも、ゲノム編集等に代表される高度な技術が生命の尊厳や社会に与える影響を深く認識すること」および「技術の進展を停滞させることなく、倫理的な適正性を維持・検証し続けるための柔軟かつ透明性の高い倫理的枠組みを構築し、社会的な信頼に基づいた技術実装を推進する」旨の記述を追加する。
現在のマニフェストは科学技術の投資や実装の加速に主眼が置かれているが、ゲノム編集等の生命科学領域において倫理的適正性や社会的合意形成の視点が不足しているため、技術進展と倫理の両立を明記する必要がある。