デジタル自己決定権
Digital self-determination
☆デジタル自己決定権とは、法的な自己決定権の概念から派生した学際的な概念であり、社会の様々な側面や日常生活のデジタル化が進む中で生じる、個人および集団の主体性と自律性に対する特有の課題に対処するために、デジタル領域に適用されるものである。
| Digital
self-determination is a multidisciplinary concept derived from the
legal concept of self-determination and applied to the digital sphere,
to address the unique challenges to individual and collective agency
and autonomy arising with increasing digitalization of many aspects of
society and daily life. |
デジタル自己決定権とは、法的な自己決定権の概念から派生した学際的な概念であり、社会の様々な側面や日常生活のデジタル化が進む中で生じる、個人および集団の主体性と自律性に対する特有の課題に対処するために、デジタル領域に適用されるものである。 |
| Origins There is no philosophically or legally agreed-upon concept of digital self-determination yet. Broadly speaking, the term describes the attempt to comprehensively project the pattern of human self-determination (as first explored in disciplines like philosophy and psychology, and in the law) into the digital age. The concept has been included in an official document for the first time by ARCEP, the French Telecoms Regulator, in a section of its 2021 Report on the State of the Internet,[1] exploring the work on "Network Self-determination"[2] conducted by Professor Luca Belli. |
起源 デジタル自己決定権について、哲学的・法的に合意された概念はまだ存在しない。大まかに言えば、この用語は人間の自己決定権のパターン(哲学や心理学、法学などの分野で最初に探求されたもの)をデジタル時代に包括的に投影しようとする試みを指す。 この概念は、フランスの電気通信規制機関であるARCEPが2021年版インターネット状況報告書[1]の一節で初めて公式文書に盛り込んだものである。同報告書では、ルカーチ・ベリ教授による「ネットワーク自己決定」[2]に関する研究が考察されている。 |
| Self-determination Philosophy The concept of self-determination relates to concepts of subjectivity, dignity, and autonomy in classic central-European philosophy and derived from Immanuel Kant's conception of freedom. Self-determination presupposes that human beings are entities capable of reason and responsibility for their own rationally chosen and justified actions (autonomy), and ought to be treated accordingly. In formulating his categorical imperative (kategorischer Imperativ), Kant suggested that humans, as a condition of their autonomy, must never be treated as a means to an end but as an end in itself. The pattern of self-determination similarly aims at enabling autonomous human beings to create, choose and pursue their own identity, action, and life choices without undue interference. Psychology In psychology, the concept of self-determination is closely related to self-regulation and intrinsic motivation, i.e., engaging in a behavior or activity because it is inherently rewarding to do so, as opposed to being driven by external motivations or pressures, like monetary incentives, status, or fear. In this context, self-determination and intrinsic motivation are linked to feeling in control of one's choices and behavior and are considered necessary for psychological well-being. Self-determination theory (SDT), first introduced by psychologists Richard Ryan and Eduard Deci in the 1980s,[3][4] and further developed through the 1990s and 2000s, has been largely influential in shaping the concept of self-determination in the field of psychology. Ryan and Deci's SDT proposed that individuals' motivated behavior is characterized by three basic and universal needs: autonomy, competence, and relatedness.[5] Autonomy refers here to the need to feel free to decide one's course of action. Competence refers to the need to have the capacity and skills to undertake and complete motivated behavior in an effective manner. Finally, relatedness refers to the need to experience warm and caring social relationships and feel connected to others. According to SDT, all three needs must be fulfilled for optimal functioning and psychological well-being. However, other psychologists like Barry Schwartz have argued that if self-determination is taken to extremes, freedom of choice can turn into the "tyranny of choice".[6] In this view, having too much autonomy and too many choices over our course of action can be perceived as overwhelming, make our decisions more difficult, and ultimately lead to psychological distress rather than wellbeing. Law Human rights In international law, the right of a people to self-determination is commonly recognized as a ius cogens rule. Here, self-determination denotes that a people, based on respect for the principle of equal rights and fair equality of opportunity, have the right to freely choose their sovereignty, international political status, economic, social, and cultural development with no interference. In the framework of the United Nations, fundamental rights like self-determination are mainly defined in the Universal Declaration of Human Rights, the International Covenant on Civil and Political Rights, and the International Covenant on Economic, Social and Cultural Rights. Informational self-determination in German law The concept of informational self-determination (informational Selbstbestimmung), considered as a modern fundamental right which protects against unjustified data processing, has featured prominently in the German Federal Constitutional Court's (Bundesverfassungsgericht) jurisprudence and might be the most direct precursor and inspiration to the concept of digital self-determination.[7][8] In 1983, the Bundesverfassungsgericht ruled that "in the context of modern data processing, the general right of personality under Article 2.1 in conjunction with Article 1.1 of the Basic Law encompasses the protection of the individual against unlimited collection, storage, use and sharing of personal data. The fundamental right guarantees the authority conferred on the individual to, in principle, decide themselves on the disclosure and use of their personal data." (Volkszählungsurteil, headnote 1). Philosophically, the right to informational self-determination is deeply rooted in the Bundesverfassungsgericht's understanding of inviolable Human Dignity (Article 1 of the Grundgesetz) as a prohibition of human objectification (in German: Objektformel; see for example n°33 of BVerfGE 27, 1 - Mikrozensus). This understanding refers back to the late 18th-century German philosophy of Enlightenment. The Volkszählungsurteil was inspired by the concern that modern data processing technology could lead to a "registration and cataloging of one's personality in a manner that is incompatible with human dignity" (Volkszählungsurteil, headnote 4). In this view, human beings, due to their inviolable dignity, may never be treated like depersonalized and objectified resources that can be harvested for data. Instead humans, due to their capacity for autonomy, are self-determined agents possessing a significant degree of control over their informational images. |
自己決定 哲学 自己決定の概念は、古典的な中央ヨーロッパ哲学における主体性、尊厳、自律性の概念に関連し、イマヌエル・カントの自由の概念に由来する。自己決定は、人 間が理性を持つ存在であり、自ら理性的に選択し正当化された行動に対する責任能力(自律性)を有すると前提し、それに応じて扱われるべきだとする。カント は定言命法(kategorischer Imperativ)を提唱し、自律性の条件として、人間を決して目的のための手段として扱ってはならず、それ自体が目的として扱わねばならないと示唆し た。自己決定のパターンも同様に、自律的な人間が不当な干渉を受けずに自らのアイデンティティ、行動、人生の選択を創造し、選択し、追求できるようにする ことを目指す。 心理学 心理学において、自己決定の概念は自己調整と内発的動機付けと密接に関連している。つまり、金銭的報酬や地位、恐怖といった外的動機や圧力に駆られるので はなく、それ自体に内在的な報酬があるために行動や活動に従事することである。この文脈では、自己決定と内発的動機付けは、自らの選択や行動を制御してい るという感覚と結びつき、心理的幸福感に必要不可欠とみなされる。自己決定理論(SDT)は、1980年代に心理学者リチャード・ライアンとエドワード・ デシによって初めて提唱され[3][4]、1990年代から2000年代にかけてさらに発展した。この理論は心理学分野における自己決定の概念形成に大き く影響を与えた。ライアンとデシのSDTは、個人の動機付けられた行動は三つの基本的かつ普遍的な欲求によって特徴づけられると提唱した:自律性、有能 性、そして関係性である[5]。自律性とは、自らの行動方針を自由に決定したいという欲求を指す。有能性とは、動機付けられた行動を効果的に遂行し完了す るための能力や技能を持ちたいという欲求を指す。最後に、関係性とは、温かく思いやりのある社会的関係を経験し、他者とつながっていると感じたいという欲 求を指す。SDTによれば、最適な機能と心理的幸福感を得るには、これら三つの欲求が全て満たされる必要がある。しかしバリー・シュワルツら他の心理学者 は、自己決定が極端になると選択の自由が「選択の専制」に転じ得ると主張している[6]。この見解では、行動方針に対する自律性と選択肢が過剰になると、 圧倒されたと感じ、意思決定が困難になり、最終的には幸福感ではなく心理的苦痛をもたらすという。 法 人権 国際法において、人民の自己決定権は普遍的規範(ius cogens)として広く認められている。ここで自己決定とは、平等な権利と機会均等の原則を尊重した上で、人民が主権、国際政治的地位、経済的・社会 的・文化的発展を干渉なく自由に選択する権利を指す。国連の枠組みにおいて、自己決定権のような基本的権利は主に『世界人権宣言』、『市民的及び政治的権 利に関する国際規約』、『経済的、社会的及び文化的権利に関する国際規約』で定義されている。 ドイツ法における情報自己決定権 情報自己決定権(informational Selbstbestimmung)の概念は、不当なデータ処理から保護する現代的な基本権と見なされ、ドイツ連邦憲法裁判所 (Bundesverfassungsgericht)の判例において顕著な位置を占めてきた。これはデジタル自己決定権の概念にとって最も直接的な前身 であり、インスピレーションの源である可能性がある。[7] [8] 1983年、連邦憲法裁判所は「現代のデータ処理の文脈において、基本法第2条1項と第1条1項に基づく人格権の一般的権利は、個人データの無制限な収 集、保存、利用、共有に対する個人の保護を含む」と判示した。この基本権は、原則として個人が自身の個人的データの開示及び利用について自ら決定する権限 を保障するものである」と判示した(国勢調査判決、判例要旨1)。 哲学的には、情報自己決定権は、連邦憲法裁判所が不可侵の人間の尊厳(基本法第1条)を人間の物化(ドイツ語:Objektformel)の禁止として理 解していることに深く根ざしている(例えばBVerfGE 27, 1 - Mikrozensusの33項参照)。この理解は18世紀末のドイツ啓蒙哲学に遡る。国勢調査判決は、現代のデータ処理技術が「人間の尊厳と相容れない 方法で個人的な登録・分類を行う」可能性への懸念に触発された(国勢調査判決、判例要旨4)。この見解によれば、人間はその不可侵の尊厳ゆえに、データ収 集の対象として非人格化・客体化された資源のように扱われることは決してあってはならない。むしろ人間は自律性を有する主体として、自らの情報像に対して 相当の支配権を有する自己決定的な存在なのである。 |
| Self-determination in the digital sphere The increasing digitization of most aspects of society poses new challenges for the concept and realization of self-determination.[9] While the digital sphere has ushered in innovation and opened up new opportunities for self-expression and communication for individuals across the globe, its reach and benefits have not been evenly distributed, oftentimes deepening existing inequalities and power structures, commonly referred to as a digital divide. Moreover, the digital transformation has enabled, oftentimes unbeknownst to individuals, the mass collection, analysis, and harvesting of personal data by private companies and governments to infer individuals' information and preferences (e.g., by tracking browsing and shopping history), influence opinions and behavior (e.g., through filter bubbles and targeted advertisements), and/or to make decisions about them (e.g., approving or not a loan or employment application), thus posing new threats to individuals' privacy and autonomy.[10] Although the definition of digital self-determination is still evolving, the term has been used to address humans' capacity (or lack thereof) to exercise self-determination in their existence in and usage of digital media, spaces, networks, and technologies, with the protection of the potential for human flourishing in the digital world as one of the chief concerns.[11] Starting in the 2010s, a few multidisciplinary and cross-sectoral initiatives around the world have been working on developing a theoretical framework for the concept of digital self-determination. In 2015, the Cologne Center for Ethics, Rights, Economics, and Social Sciences of Health, housed at the University of Cologne (CERES), conducted a study to help define digital self-determination and develop metrics to measure its fulfillment.[12] Their study report defines digital self-determination as "the concrete development of a human personality or the possibility of realizing one's own plans of action and decisions to act, insofar as this relates to the conscious use of digital media or is (co-)dependent on the existence or functioning of digital media". In 2017, Professor Luca Belli presented at the United Nations Internet Governance Forum the concept of Network Self-determination as the "right to freely associate in order to define, in a democratic fashion, the design, development and management of network infrastructure as a common good, so that all individuals can freely seek, impart and receive information and innovation."[13] Arguing that the right to network self-determination finds its basis in the fundamental right to self-determination of peoples as well as in the right to informational self-determination, Belli posits that network self-determination plays a pivotal role allowing individuals to associate and join efforts to bridge digital divides in a bottom-up fashion, freely developing common infrastructure. The concept gained traction at the Latin American level, starting to form a core element of research and policy proposals dedicated to community networks.[14] In 2018, the Swiss government launched a Digital Self-Determination network in response to the action plan for the Federal Council's 'Digital Switzerland' strategy, including representatives from the Swiss Federal Administration, academia, civil society, and the private sector.[15] The work of this network conceptualizes digital self-determination as "a way of enhancing trust into digital transformation while allowing all actors of society to benefit from the potential of the data economy". This work proposes that the core principles of digital self-determination are transparency and trust, control and self-determined data sharing, user-oriented data spaces, and decentralized data spaces that operate in proximity to citizens' needs. The work of the network aims "to create an international network that represents the basic principles of digital self-determination and on this basis will elaborate best practices, standards, and agreements to develop international data spaces". In 2021, the French Telecoms Regulator (ARCEP) referred to the concept of Digital Self-determination in its official annual report dedicated to "The State of the Internet",[1] drawing on the IGF output document report on "The Value of Internet Openness in Times of Crisis". In 2021, the Centre of AI & Data Governance at Singapore Management University launched a major research project focusing on the concept of digital self-determination, in collaboration with the Swiss government and other research partners.[16] Their theoretical framework[9] focuses on data governance and privacy, and proposes that the core components of digital self-determination are the empowerment of data subjects to oversee their sense of self in the digital sphere, their ability to govern their data, consent as a cornerstone of privacy and data protection, protection against data malfeasance, and accuracy and authenticity of the data collected. This proposed framework also emphasizes that digital self-determination refers to both individuals and collectives and that the concept should be understood in the context of "rights dependent on duties" and in parallel to concepts of a social or relational self, social responsibility, and digital solidarity (see below: 3.1. Addressing the multilevel 'self' in digital self-determination) In 2021, the Digital Asia Hub in collaboration with the Berkman Klein Center at Harvard University and the Global Network of Internet & Society Centers, conducted a research sprint to explore the concept of digital self-determination from different perspectives and across cultural contexts. This initiative approached digital self-determination "as an enabler of - or at least contributor - to the exercise of autonomy and agency in the face of shrinking choices", to address questions of control, power, and equity "in a world that is increasingly constructed, mediated, and at times even dominated by digital technologies and digital media, including the underlying infrastructures."[17] In addition to the work of governments and research centers, civil society members have also advocated for digital self-determination. For example, Ferdinand von Schirach, a legal attorney and widely-read German writer of fictional legal short stories and novels, has launched an initiative entitled "JEDER MENSCH", which translates to "Every human". In "JEDER MENSCH", von Schirach calls for the addition of six new fundamental rights to the Charter of Fundamental Rights of the European Union. Article 2 of this proposal is entitled "right to digital self-determination", and proposed that "Everyone has the right to digital self-determination. Excessive profiling or the manipulation of people is forbidden."[18] In October 2021, an International Network on Digital Self-Determination [19] was created with the intention of "bringing together diverse perspectives from different fields around the world to study and design ways to engage in trustworthy data spaces and ensure human centric approaches.[20]" The network is composed of experts from the Directorate of International Law of the Swiss Federal Department of Foreign Affairs;[21] the Centre for Artificial Intelligence and Data Governance at Singapore Management University;[22] the Berkman Klein Center at Harvard University;[23] the Global Tech Policy Practice at the TUM School of Social Sciences and Technology [24] and The GovLab at New York University.[25] |
デジタル領域における自己決定 社会のほとんどの側面でデジタル化が進むにつれ、自己決定の概念と実現に新たな課題が投げかけられている[9]。デジタル領域は革新をもたらし、世界中の 個人に自己表現とコミュニケーションの新たな機会をもたらしたが、その範囲と恩恵は均等には分配されておらず、一般にデジタルデバイドと呼ばれる既存の不 平等と権力構造を深めていることが多い。さらに、デジタルトランスフォーメーションは、個人の情報や嗜好を推測し(例えば、ブラウジングやショッピングの 履歴を追跡することによって)、意見や行動に影響を与え(例えば、フィルターバブルやターゲット広告によって)、そして/または個人に関する意思決定を行 う(例えば、ローンや雇用の申請を承認するか否か)ために、民間企業や政府による個人的データの大量収集、分析、採取を、しばしば個人の知らないうちに可 能にしており、その結果、個人のプライバシーと自律性に対する新たな脅威をもたらしている[10]。 デジタル自己決定の定義はまだ発展途上にあるが、この用語は、デジタル世界における人間の繁栄の可能性の保護を主要な関心事の一つとして、デジタルメディ ア、スペース、ネットワーク、テクノロジーにおける存在とその使用において自己決定を行使する人間の能力(またはその欠如)を扱うために使用されてきた [11]。 2010年代から、世界中のいくつかの学際的で分野横断的なイニシアチブが、デジタル自己決定の概念の理論的枠組みの開発に取り組んできた。 2015年、ケルン大学にあるケルン倫理・権利・経済・健康社会科学センター(CERES)は、デジタル自己決定を定義し、その実現を測定するための指標 を開発するための研究を実施した[12]。彼らの研究報告書は、デジタル自己決定を「デジタルメディアの意識的な使用に関連する限りにおいて、またはデジ タルメディアの存在もしくは機能に(共)依存する限りにおいて、人間の人格の具体的な発展、または自分自身の行動計画や行動決定を実現する可能性」と定義 している。 2017年、ルカーチ教授は国連のインターネット・ガバナンス・フォーラムで、ネットワーク自己決定の概念を「すべての個人が情報やイノベーションを自由 に求め、伝え、受け取ることができるように、ネットワークインフラの設計、開発、管理を共有財として民主的な方法で定義するために、自由に結社する権利」 として発表した。「ネットワーク自己決定権は、情報的自己決定権だけでなく、民族の自己決定権という基本的な権利にその根拠を見出すことができると主張す るベリは、ネットワーク自己決定権は、個人がボトムアップ方式でデジタル・デバイドを埋める取り組みに参加し、共通のインフラを自由に開発することを可能 にする極めて重要な役割を果たすと主張する。この概念はラテンアメリカレベルで支持を集め、コミュニティ・ネットワークに特化した研究や政策提案の中核を 形成し始めた[14]。 2018年、スイス政府は連邦評議会の「デジタル・スイス」戦略の行動計画に呼応して、スイス連邦行政府、学界、市民社会、民間セクターの代表者を含むデ ジタル自己決定ネットワークを立ち上げた[15]。このネットワークの作業は、デジタル自己決定を「社会のすべての主体がデータ経済の可能性から利益を得 ることを可能にしながら、デジタル変革への信頼を高める方法」として概念化している。この作業は、デジタル自己決定の核となる原則は、透明性と信頼、コン トロールと自己決定によるデータ共有、ユーザー指向のデータ空間、市民のニーズに近接して運用される分散型データ空間であると提案している。このネット ワークの目的は、「デジタル自己決定の基本原則を代表する国際的なネットワークを構築し、これに基づいて国際的なデータ空間を発展させるためのベストプラ クティス、基準、協定を精緻化すること」である。 2021年、フランスの電気通信規制当局(ARCEP)は、「インターネットの現状」に特化した公式年次報告書の中でデジタル自己決定の概念に言及し[1]、「危機の時代におけるインターネット開放の価値」に関するIGFの成果文書報告書を参考にした。 2021年、シンガポール経営大学のAI&データガバナンスセンターは、スイス政府や他の研究パートナーと共同で、デジタル自己決定の概念に焦点を当てた 大規模な研究プロジェクトを開始した[16]。彼らの理論的枠組み[9]は、データガバナンスとプライバシーに焦点を当てており、デジタル自己決定の中核 的な構成要素は、デジタル領域における自己の感覚を監督するデータ主体のエンパワーメント、データを管理する能力、プライバシーとデータ保護の基礎として の同意、データの不正行為からの保護、収集されたデータの正確性と真正性であると提案している。この提案された枠組みはまた、デジタル自己決定が個人と集 団の両方を指し、この概念は「義務に依存する権利」の文脈で、社会的または関係的自己、社会的責任、デジタル連帯の概念と並行して理解されるべきであるこ とを強調している(下記参照: 3.1. デジタル自己決定におけるマルチレベルの「自己」への取り組み) 2021年、デジタル・アジア・ハブは、ハーバード大学のバークマン・クライン・センターおよびインターネット&ソサエティ・センターのグローバル・ネッ トワークと共同で、デジタル自己決定の概念をさまざまな視点から、また文化的文脈を超えて探求するためのリサーチ・スプリントを実施した。このイニシア ティブは、デジタル自己決定について、「縮小する選択肢の中で自律性と主体性を発揮することを可能にするもの、あるいは少なくともその一助となるもの」と してアプローチし、「基盤となるインフラを含め、デジタル技術とデジタルメディアによってますます構築され、媒介され、時には支配さえされる世界」 [17]において、コントロール、パワー、公平性の問題に取り組むものである。 政府や研究センターの活動に加えて、市民社会のメンバーもデジタル自決を提唱してきた。例えば、法律家であり、架空の法律短編小説や小説で広く読まれてい るドイツの作家であるフェルディナント・フォン・シーラッハは、「すべての人間」と訳される「JEDER MENSCH」と題されたイニシアチブを立ち上げた。JEDER MENSCH "の中でフォン・シーラッハは、EUの基本権憲章に新たに6つの基本権を加えることを提案している。この提案の第2条は「デジタル自己決定権」と題され、 「すべての人はデジタル自己決定権を有する」と提案している。過度なプロファイリングや人々の操作は禁じられている」[18]。 2021年10月には、「世界中の異なる分野から多様な視点を集め、信頼できるデータ空間に関与し、人間中心のアプローチを確保する方法を研究・設計する [20]」意図主義で、デジタル自己決定に関する国際ネットワーク[19]が創設された。このネットワークは、スイス連邦外務省国際法局、[21] シンガポール経営大学の人工知能・データガバナンスセンター、[22] ハーバード大学のバークマン・クライン・センター、[23] TUM社会科学技術大学院のグローバル・テック・ポリシー・プラクティス、[24] ニューヨーク大学のThe GovLabの専門家によって構成されている[25]。 |
| Practical elements Different sectors of society, ranging from legislators and policy-makers, to public organizations and scholars, to activists and members of the civil society, have called for digital infrastructure, tools and systems that protect and promote individuals' self-determination, including equal and free access, human-centered design, better privacy protections and control over data. These elements are closely connected and complement one another. For example, equal access to digital infrastructure can enable the representation of diverse viewpoints and participatory governance in the digital sphere, and decentralized systems might be necessary to ensure individuals' control over their data. Access to digital infrastructure and tools Bridging the various forms of existing digital divides and providing equitable and fair access to digital technologies and the internet has been proposed as crucial to ensure that all individuals are able to benefit from the digital age, including access to information, services, and advancement opportunities.[26][27] In this sense, the concept of Digital Self-determination overlaps with the concept of "Network Self-determination"[28] as it emphases that groups of unconnected and scarcely connected individuals can regain control over digital infrastructures, by building them and shaping the governance framework that will organise them as a common good.[29] As such, Belli stresses that network self-determination leads to several positive externalities for the affected communities, preserving the Internet as an open, distributed, interoperable and generative network of networks.[2] Digital literacy Digital literacy and media literacy have been proposed as necessary for individuals to acquire the knowledge and skills to use digital tools as well as to critically assess the content they encounter online, create their own content, and understand the features and implications of the digital technology used on them as well as the technology they consciously and willingly engage with.[30] In addition to basic digital navigation skills and critical consumption of information, definitions of digital literacy have been extended to include an awareness of existing alternatives to the digital platforms and services used, understanding how personal data is handled, awareness of rights and existing legal protections, and of measures to independently protect one's security and privacy online (e.g., the adoption of obfuscation techniques as a way of evading and protesting digital surveillance[31]). Representation of diverse realities and viewpoints Internet activist Eli Pariser coined the term filter bubble to refer to the reduced availability of divergent opinions and realities that we encounter online as a consequence of personalization algorithms like personalized search and recommendation systems.[32] Filter bubbles have been suggested to facilitate a warped understanding of others' points of view and the world. Ensuring a wide representation of diverse realities on digital platforms could be a way of increasing exposure to conflicting viewpoints and avoiding intellectual isolation into informational bubbles. Human-centered design of user interfaces and experiences Scholars have coined the term attention economy to refer to the treatment of human attention as a scarce commodity in the context of ever-increasing amounts of information and products. In this view, the increasing competition for users' limited attention, especially when relying on advertising revenue models, creates a pressing goal for digital platforms to get as many people as possible to spend as much time and attention as possible using their product or service. In their quest for users' scarce attention, these platforms would be incentivized to exploit users' cognitive and emotional weaknesses, for example via constant notifications, dark patterns, forced multitasking, social comparison, and incendiary content.[10] Advocates of human-centered design in technology (or humane technology) propose that technology should refrain from such 'brain-hacking' practices, and instead should support users' agency over their time and attention as well as their overall wellbeing.[33] Data governance Scholar Shoshana Zuboff popularized the term surveillance capitalism to refer to the private sector's commodification of users' personal data for profit (e.g. via targeted advertising), leading to increased vulnerability to surveillance and exploitation. Surveillance capitalism relies on centralized data management models wherein private companies retain ownership and control over the users' data. To guard against the challenges to individuals' privacy and self-determination, various alternative data governance models have been recently proposed around the world, including trusts,[34] commons,[35] cooperative,[36] collaboratives,[37] fiduciaries,[38] and "pods".[39] These models have some overlap and share a common mission to give more control to individuals over their data and thus address the current power imbalances between data holders and data subjects.[40] |
実践的要素 立法者や政策立案者から、公的機関や学者、活動家や市民社会のメンバーに至るまで、社会の異なるセクターが、平等で自由なアクセス、人間中心の設計、より 良いプライバシー保護、データ管理など、個人の自己決定を保護・促進するデジタルインフラ、ツール、システムを求めてきた。これらの要素は密接に関連して おり、互いに補完し合っている。例えば、デジタル・インフラへの平等なアクセスは、デジタル領域における多様な視点の代表と参加型ガバナンスを可能にし、 分散型システムは個人のデータ管理を保証するために必要かもしれない。 デジタルインフラとツールへのアクセス 既存の様々な形態のデジタル・デバイドを解消し、デジタル・テクノロジーやインターネットへの公平で公正なアクセスを提供することは、情報、サービス、昇 進の機会へのアクセスを含め、すべての個人がデジタル時代から恩恵を受けられるようにするために極めて重要であると提唱されている[26][27]。 この意味で、デジタル自己決定の概念は、「ネットワーク自己決定」[28]の概念と重なり、接続されていない、あるいはほとんど接続されていない個人のグ ループが、デジタルインフラを構築し、それらを共通の善意として組織化するガバナンスの枠組みを形成することによって、デジタルインフラに対するコント ロールを取り戻すことができることを強調している[29]。 デジタルリテラシー デジタルリテラシーとメディアリテラシーは、個人がデジタルツールを使用するための知識とスキルを習得するだけでなく、オンラインで遭遇するコンテンツを 批判的に評価し、独自のコンテンツを作成し、意識的かつ進んで関わる技術だけでなく、自分自身に使用されるデジタル技術の特徴と意味を理解するために必要 なものとして提唱されている[30]。[30] デジタル・リテラシーの定義には、基本的なデジタル・ナビゲーショ ン・スキルや情報の批判的な消費に加えて、利用するデジタル・プラット フォームやサービスに代わるものが存在すること、個人的データがど のように扱われているかを理解すること、権利や既存の法的保護につい て認識すること、オンライン上で自分のセキュリティやプライバシーを 自主的に守るための手段(例.デジタル監視を回避し抗議する方法としての難読化技術の採用など[31])。 多様な現実と視点の表現 インターネット活動家のイーライ・パリサーは、個人的検索や推薦システムのような個人的アルゴリズムの結果として、オンライン上で遭遇する多様な意見や現 実の利用可能性が減少することを指して、フィルターバブルという言葉を作った[32]。フィルターバブルは、他者の視点や世界に対する歪んだ理解を促進す ることが示唆されている。デジタルプラットフォーム上で多様な現実を幅広く表現することは、相反する視点に触れる機会を増やし、情報バブルへの知的孤立を 回避する方法となりうる。 ユーザー・インターフェースと体験の人間中心設計 学者たちはアテンション・エコノミー(注意の経済)という言葉を作り、増え続ける情報や製品の中で、人間の注意を希少な商品として扱うことを指している。 この考え方では、特に広告収入モデルに依存している場合、ユーザーの限られたアテンションに対する競争が激化しているため、デジタル・プラットフォームに とっては、できるだけ多くの人に自社の製品やサービスを使ってできるだけ多くの時間とアテンションを使ってもらうという差し迫った目標が生まれる。ユー ザーの乏しい注意力を求めて、これらのプラットフォームは、例えば、絶え間ない通知、ダークパターン、強制的なマルチタスク、社会的比較、扇動的なコンテ ンツを介して、ユーザーの認知的・感情的な弱点を悪用する動機付けを受けることになる[10]。テクノロジーにおける人間中心設計(または人道的テクノロ ジー)の提唱者は、テクノロジーはこのような「ブレインハッキング」行為を控えるべきであり、その代わりに、時間と注意力に対するユーザーの主体性、およ び全体的なウェルビーイングをサポートすべきであると提案している[33]。 データガバナンス 学者のショシャナ・ズボフは、監視資本主義という用語を普及させ、民間部門が(ターゲット広告などを通じて)利益のために利用者の個人的データを商品化 し、監視や搾取に対する脆弱性を増大させることを指している。監視資本主義は、民間企業が利用者のデータの所有権と管理権を保持する集中型データ管理モデ ルに依存している。個人のプライバシーと主体性に対する挑戦から身を守るために、信託、[34]コモンズ、[35]協同組合、[36]共同組合、[37] 受託者、[38]「ポッド」[39]など、様々な代替的データガバナンスモデルが最近世界中で提案されている。 |
| Current issues Addressing the multilevel 'self' in digital self-determination Digital self-determination for individuals An individual's exercising of self-agency can be intimately connected to the digital environments one is embedded in, which can shape one's choice architecture, access to information and opportunities as well as exposure to harm and exploitation, thereby affecting the person's capacity to freely and autonomously conduct his or her life. A variety of digital technologies and their underlying infrastructure, regardless of their relatively visible or indirect human interfaces, could contribute to conditions that empower or disempower an individual's self-determination in the spheres of socio-economic participation, representation of cultural identity and political expression. ![]() An illustration depicting the use of facial recognition technology on a woman The extent of technologically mediated spheres where such influence could take place over an individual's self-determined choices has been the focus of growing contemporary debates across diverse geographies. One of the debates concerns whether an individual's privacy, as a form of control over one's information,[41] may or may not be sufficiently protected from exploitative data harvesting and micro-targeting that can exert undue behavioural influence over the individual as part of a targeted group. Developments in this area vary greatly across countries and regions where there are different privacy frameworks and big data policies, such as the European Union's General Data Protection Regulation and China's Social Credit System,[42] which approach personal data distinctly.[43] Other debates range from whether individual agency in decision-making can be undermined by predictive algorithms;[44] whether an individual labor, particularly in the Global South,[45] may encounter new employment opportunities as well as unique vulnerabilities in the digital economy; whether an individual's self-expression may be unduly and discriminately policed by surveillance technologies deployed in smart cities, particularly those integrating facial recognition and emotion recognition capabilities which run on biometric data, as a form of digital panopticon;[46] and whether an individual's access to diverse information may be affected by the digital divide and dominance of centralized online platforms, potentially limiting one's capacity to imagine his or her identity[47] and make informed decisions. |
現在の課題 デジタル自己決定におけるマルチレベルの「自己」への対応 個人のデジタル自己決定 個人の自己決定権の行使は、その人が組み込まれているデジタル環境と密接に関係している可能性がある。デジタル環境は、その人の選択アーキテクチャを形成 し、情報や機会へのアクセスだけでなく、危害や搾取にさらされる可能性もあり、それによってその人の自由で自律的な生活能力に影響を与える。様々なデジタ ル技術とその基礎となるインフラストラクチャーは、比較的目に見えやすいか間接的なヒューマン・インターフェースに関わらず、社会経済的参加、文化的アイ デンティティの表現、政治的表現の領域において、個人の自己決定に力を与えたり与えたりする状況に貢献する可能性がある。 ![]() 女性に対する顔認識技術の使用を示すイラスト。 このような影響が個人の自己決定的選択に及ぶ可能性のある、技術的に媒介された領域の範囲は、多様な地理的範囲にまたがる現代的な議論の焦点となってい る。議論のひとつは、自分の情報をコントロールする一形態としての個人のプライバシー[41]が、搾取的なデータ・ハーベスティングやマイクロ・ターゲ ティングから十分に保護されているか否かに関するものであり、それは標的とされた集団の一員として個人に対して不当な行動的影響を及ぼす可能性がある。こ の分野での動向は、欧州連合の一般データ保護規則や中国の社会信用制度[42]のように、個人的データに明確にアプローチしている異なるプライバシーの枠 組みやビッグデータ政策が存在する国や地域によって大きく異なる[43]。 その他の議論としては、意思決定における個人の主体性が予測的アルゴリズムによって損なわれる可能性があるかどうか[44]、特にグローバル・サウス [45]における個別労働がデジタル経済において新たな雇用機会だけでなく独自の脆弱性に遭遇する可能性があるかどうか[45]、など多岐にわたる; 個人の自己表現が、デジタル・パノプティコンの一形態として、スマート・シティに導入された監視技術、特にバイオメトリクス・データで動作する顔認識や感 情認識機能を統合した技術によって、不当に差別的に取り締まられる可能性があるかどうか[46]、個人の多様な情報へのアクセスが、デジタル・デバイドと 中央集権的なオンライン・プラットフォームの支配によって影響を受け、潜在的に自分のアイデンティティ[47]を想像し、情報に基づいた意思決定を行う能 力を制限する可能性があるかどうか。 |
| Digital self-determination for children Digital media and technology afford children the opportunity to engage in various activities that support their development, learning, and pleasure time.[48][49] Such activities include play, interactions with others, sharing and creating content, and experimenting with varied forms of identities afforded by mediums they engage with .[50] At the same time, despite digital media affordances, children are users who are under 18 years old, which can have unintended consequences on how children consume content, be vulnerable, and ways interactions with technology impact the child's emotional, behavioral, and cognitive development. Therefore, calls within digital literacy and children technology interaction research assert that ethical design of technology is essential for designing equitable environments for children.[51] Work in digital media and learning acknowledges the affordances of technology for creating expansive ways for learning and development for children, at the same time, pays attention to that children should learn critical digital literacies that enables them to communicate, evaluate, and construct knowledge within digital media.[52] Additionally, ethical consideration should be taken into account to support children's self-determination.[53] For instance within this body of work, there is an attention to involving children in the decision-making process of technology design as an ethical methodological approach in engaging the design of technology for children. In other words, involving children within the design process of technologies and thinking about ethical dimensions of children interactions enables a shift of the notion of vulnerability is shifted towards supporting children to enact their self-determination and positioning them as active creators of their own digital futures. Beyond ethical considerations, children's involvement in digital technologies and digital market practices has also an important relevance with their privacy and data protection rights. Use of predictive analytics and tracking software systems can impact children's digital and real life choices by exploiting massive profiling practices. In fact, due to the ubiquitous use of these algorithmic systems at both state and private sector level, children's privacy can easily be violated and they can be personally identifiable in the digital sphere.[54] Article 12 of the UN CRC implies a responsibility to states that children should have the right to form and express their own views "freely, without any pressure".[55] In the literal analysis, pressure refers to any kind of manipulation, oppression or exploitation. States parties should recognize that all children regardless of age are capable of forming and expressing their own autonomous opinions.[55] Also, it is stated by the Committee that children should have the right to be heard even if they don't have a comprehensive understanding of the subject matter affecting them.[55] Moreover, Article 3 of the UNCRC states that the best interest of the child shall be embedded in private and governmental decision-making processes and shall be a primary consideration in relation to the services and procedures which involve children.[56] Anchoring these responsibilities to private and public digital practices and as it is highlighted in the General Comment No. 25 of the Committee on the Rights of the Child, children are at great risk in the digital domain regarding their vulnerable and evolving identity.[57] It turns out that with the proliferation of mass surveillance and predictive analytics, new disputes are on the way for states to protect children's very innate rights. To this end, recent class actions and regulation efforts Tech firms can be promising examples in the context of pushing the private sector to adopt more privacy-preserving practices on children which can provide a golden shield for their autonomy.[58][59] In this incautiously regulated atmosphere, it has become easier to make profit with the help of behavioral advertising against children.[60] Not having appropriate consent- inform/ parental consent practices, it is so easy to manipulate and exploit very intrinsic vulnerabilities of children and nudge them to choose specific products and applications. Regarding this, article 8 of the GDPR provides a set of age limits on the processing of personal data of children related to the information society services(ISS). Pursuant to Article 8, in conditions where children are at least 16 years old, the child can give consent to the lawful processing of personal data restricted with the purpose of processing (Art(6)(1)(a). For children under 16 years old, it is lawful only and to the extent of the consent which is given by the holder of the parental responsibility to the child. This age limit of 16 can be lower to the age of 13 by the Member States. In addition to this, it is emphasized that data controllers should take necessary measurements in relation to the protection of children's data. Supporting these, Recital 38 states that children merit specific protection on the use, collection and processing of their data taking into consideration that children are less aware of the impacts, consequences and safeguards with respect to processing of their personal data. The GDPR also refers to the children in Articles 40 and 57; Recitals 58 and 75. Beyond the GDPR, one of the structured regulations is the UK's Information Commissioner's Office (ICO) Children Code (formally Age Appropriate Design Code) which is passed in September 2020.[61] The Children Code sets forth the age limit as 18 with regard to ability to give free while implying the responsibility to the providers of online services such as apps, games, connected devices and toys and new services. What differs The Children Code from the EU regulations is that it applies to all information society services which are likely to be accessed by children. This means, even if the service is not directly aimed at children, the parties that offer those services must comply with The Children Code. The ICO's Children Code is also infused with the notion of the best interest of the child that is laid out in the UNCRC.[62] Having a broad scope, the ICO lists a set of guiding points for organizations to support the notion of the best interest of the child such as recognizing that children has an evolving capacity to form their own views and giving due weight to those views, protecting their needs of the developing their own ideas and identity, their right to assembly and play.[62] The Code also extends the protection of the personal data of children with a set of key standards such as data minimisation, data protection impact assessments, age appropriate design, privacy by default and transparency. |
子どものデジタル自己決定 このような活動には、遊び、他者との交流、コンテンツの共 有と創造、関わるメディアによって与えられる様々な形のアイデンティ ティを試すことなどが含まれる[50]。同時に、デジタルメディアにはそのような余裕があ るにもかかわらず、子どもは18歳未満のユーザーであり、子どもがコンテンツを 消費する方法、脆弱性、テクノロジーとの相互作用が子どもの感情、行動、 認知の発達に与える影響に意図しない結果をもたらす可能性がある。そのため、デジタルリテラシーと子どものテクノロジーとの相互作用の研究では、子どもに とって公平な環境を設計するためには、テクノロジーの倫理的設計が不可欠であると主張している。[52] さらに、子どもの自己決定を支援するために、倫理的な配慮が考慮されるべきである。言い換えれば、技術の設計プロセスに子どもを参加させ、子どもとのイン タラクションの倫理的側面について考えることで、脆弱性の概念を、子どもが自己決定権を行使することを支援し、子ども自身のデジタルな未来の能動的な創造 者として位置づける方向にシフトさせることができる。 倫理的な考察にとどまらず、子どもたちがデジタルテクノロジーやデジタル市場に関わることは、彼らのプライバシーやデータ保護の権利とも重要な関連性を持 つ。予測分析や追跡ソフトウェア・システムの利用は、大規模なプロファイリングを利用することで、子どもたちのデジタルや実生活の選択に影響を与える可能 性がある。実際、国家レベルでも民間レベルでも、こうしたアルゴリズミック・システムのユビキタスな利用により、子どもたちのプライバシーは容易に侵害さ れ、デジタル領域で個人的に特定される可能性がある[54]。 国連CRCの第12条は、子どもたちが「いかなる圧力もなく、自由 に」自らの意見を形成し、表明する権利を有するべきであるとい う国家に対する責任を示唆している[55]。締約国は、年齢に関係なく、すべての子どもたちが自らの自律的な意見を形成し、表明する能力を有していること を認識すべきである[55]。 また、子どもたちは、自分たちに影響を及ぼす主題について包括的な理解を持っていなくても、意見を聴取される権利を有するべきであると委員会は述べている [55]。 さらに、UNCRC第3条は、子どもの最善の利益は、民間および政府の意思決定プロセスに組み込まれなければならず、子どもが関与するサービスおよび手続 きとの関連において主要な考慮事項でなければならないと述べている[56]。[56]これらの責任を私的および公的なデジタル慣行に固定し、子どもの権利 委員会の一般的意見第25号で強調されているように、子どもはデジタル領域において、その脆弱性と進化するアイデンティティに関して大きなリスクにさらさ れている[57]。この目的のために、最近の集団訴訟やテック企業に対する規制の取り組みは、子どもの自律性のための黄金の盾を提供することができる、子 どもに関するよりプライバシーを保護する慣行を採用するよう民間セクターを後押しするという文脈において、有望な事例となりうる[58][59]。この無 警戒に規制された雰囲気の中で、子どもに対する行動広告の助けを借りて利益を上げることが容易になっている[60]。適切な同意-情報提供-保護者の同意 の慣行がないため、子どもの非常に本質的な脆弱性を操作し、悪用し、特定の製品やアプリケーションを選択するよう誘導することが非常に容易になっている。 これに関して、GDPRの第8条は、情報社会サービス(ISS)に関連する子どもの個人的データの処理に関する年齢制限を定めている。第8条の人格に従 い、児童が16歳以上である場合、児童は処理目的に制限された個人的データの合法的処理に同意することができる(第6条(1)(a))。16歳未満の児童 については、親権者が与えた同意の範囲内でのみ合法的である。この16歳という年齢制限は、加盟国によって13歳まで引き下げることができる。これに加え て、データ管理者は子どものデータ保護に関して必要な措置を講じるべきであることが強調されている。これらを裏付けるように、リサイタル38では、子ども は個人的データの処理に関する影響、結果、保護措置について認識が低いことを考慮し、子どものデータの使用、収集、処理について特別な保護が必要であると している。GDPRはまた、第40条と第57条、第58条と第75条で子どもについて言及している。 GDPRを超えて、構造化された規制のひとつに、2020年9月に成立する英国の情報コミッショナー事務局(ICO)のチルドレンコード(正式にはAge Appropriate Design Code)がある[61]。チルドレンコードは、アプリ、ゲーム、コネクテッドデバイス、玩具、新サービスなどのオンラインサービスのプロバイダーに責任 を課す一方で、無償で提供する能力に関する年齢制限を18歳と定めている。チルドレンコードがEUの規制と異なるのは、子どもがアクセスする可能性のある すべての情報社会サービスに適用される点である。つまり、直接子ども向けのサービスでなくても、そのサービスを提供する当事者はチルドレンコードを遵守し なければならない。ICOのチルドレン・コードには、UNCRCに規定されている子どもの最善の利益という概念も盛り込まれている[62]。広い範囲をカ バーするICOのチルドレン・コードには、子どもには独自の意見を形成する発展的な能力があることを認識し、それらの意見に正当な重みを与えること、独自 の考えやアイデンティティを発達させるという子どものニーズを保護すること、集会や遊びの権利を保護することなど、子どもの最善の利益という概念をサポー トするための組織の指針が列挙されている。[62] 規範はまた、データの最小化、データ保護影響評価、年齢に応じた設計、デフォルトによるプライバシー、透明性といった一連の重要な基準によって、子どもの 個人的データの保護を拡大している。 |
| Geopolitical and cultural power dynamics in the digital world Digital Colonialism The politics of the empire are already permeating the shared histories. Unequal social relations between colonizing and colonized peoples materialized through exploitation, segregation, epistemic violence, and so on. Throughout the world, these discourses of colonialism dominated peoples' perceptions and cultures. Post-colonial critics contended how colonized peoples could attain cultural, economical, and social agency against the oppressive structures and representation imposed on their lives and societies.[63] However, through temporality, the preface "post" implies the historical period of colonization has ended, and the colonized subjects are now free of its discourses. Scholars have focalized on the continuity of colonialism even if it has historically ended. The neo-colonial structures and discourses are already part of the different "postcolonial" cultures.[64] The postcolonial era in which colonized countries have gained independence and autonomy has been a means for the populace to regain their own self-determination and freedom. Yet, the neo-colonial structures that are still rampant in the postcolonial societies. Although the nation-state might forward the idea of autonomy and self-determination, new forms of colonialism are always emerging. This dialectic between colonialism and self-determination encompasses a range of fields, changing in form, focus, and scope over time. It is reflected in the complex political and policy relationships between "postcolonial" peoples and the state, especially since most states are replicating the legal and political systems of their former colonizer. History articulates that state policy in fields as diverse as health, education, housing, public works, employment, and justice had, and continue to have, negative effects on indigenous peoples after independence.[65] This negative effect is shared throughout the former colonized peoples. Alongside these political tensions, economic interests have manipulated legal and governance frameworks to extract value and resources from former colonized territories, often without adequate compensation or consultation to impacted individuals and communities.[66] Accordingly, Digital Colonialism emerges as a dominant discourse in the digital sphere. Digital colonialism is a structural form of domination exercised through the centralized ownership and control of the three core pillars of the digital ecosystem: software, hardware, and network connectivity. The control over the latter three gives giant corporations an immense political, economic, and social power over not only individuals, but even nation-states.[67] Assimilation into the tech products, models, and ideologies of foreign powers constitutes a colonization of the internet age.[68] Today, a new form of corporate colonization is taking place. Instead of the conquest of land, Big Tech corporations are colonizing digital technology. The following functions are dominated by a handful of multinational companies: search engines (Google); web browsers (Google Chrome); smartphone and tablet operating systems (Google Android, Apple iOS); desktop and laptop operating systems (Microsoft Windows); office software (Microsoft Office, Google Docs); cloud infrastructure and services (Amazon, Microsoft, Google, IBM); social networking platforms (Facebook, Twitter); transportation (Uber, Lyft); business networking (Microsoft LinkedIn); streaming video (Google YouTube, Netflix, Hulu); and online advertising (Google, Facebook) – among others. These include the five wealthiest corporations in the world, with a combined market cap exceeding $3 trillion.[69] If any nation-state integrates these Big Tech products into their society, these multinational corporations will obtain enormous power over their economy and create technological dependencies that will lead to perpetual resource extraction.[citation needed] This resembles the Colonial period in which the colonies were made to be dependent on the colonizer's economy for further exploitation. Under digital colonialism, digital infrastructure in the Global South are engineered for the Big tech companies' needs, enabling economic and cultural domination while imposing privatized forms of governance.[70] To accomplish this task, major corporations design digital technology to ensure their own dominance over critical functions in the tech ecosystem. This allows them to accumulate profits from revenues derived from rent; to exercise control over the flow of information, social activities, and a plethora of other political, social, economic, and military functions which use their technologies. Digital colonialism depends on code. In Code: And Other Laws of Cyberspace, Lawrence Lessig famously argued that computer code shapes the rules, norms, and behaviors of computer-mediated experiences. As a result, "code is law" in the sense that it has the power to usurp legal, institutional, and social norms impacting the political, economic, and cultural domains of society. This critical insight has been applied in fields like copyright, free speech regulation, Internet governance, blockchain, privacy, and even torts.[71] This is similar to architecture in physical space during colonialism. Building and infrastructures were built to reinforce the dominance and reach of colonialism.[72] "Postcolonial" peoples, then, face multiple digital limitations in their access and use of the networked digital infrastructures. The latter threatens to reflect and restructure existing relations of social inequality grounded in colonialism and continuing processes of neo-colonialism. Indigenous peoples are acutely aware of this potential, and so are working with various partners to decolonize the digital sphere. They are undertaking a variety of projects that represent their diverse and localized experiences, alongside a common desire for self-determination.[citation needed] Rural and remote indigenous communities face persistent access problems to the digital associated with the historic and ongoing effects of colonialism. Remote indigenous communities are becoming 'offline by design' because their going online has been challenged.[73] Indigenous peoples are asserting their digital self-determination by using these platforms to build online communities, express virtual identities, and represent their culture virtually. Hence, they are no longer static as offline, but becoming 'networked individualism'.[74] Their engagement with the digital sphere resists the imposed representations of their identities and deterritorializes conceptions of virtual communities. Accordingly, the former colonized peoples are always engaged in the process of decolonizing the latent neo-/colonial discourses which are dominating the internet. |
デジタル世界における地政学的・文化的パワー・ダイナミクス デジタル植民地主義 帝国の政治は、すでに共有された歴史に浸透している。植民地化する人々と植民地化される人々との不平等な社会関係は、搾取、隔離、認識論的暴力などを通じ て具体化した。世界各地で、こうした植民地主義の言説が人々の認識や文化を支配した。ポストコロニアル批評家たちは、植民地化された人々が、彼らの生活や 社会に課せられた抑圧的な構造や表象に対して、いかにして文化的、経済的、社会的な主体性を獲得しうるかを主張した[63]。 しかし、時間性によって、「ポスト」という序文は植民地化の歴史的期間が終わり、植民地化された主体がその言説から自由になったことを意味している。学者 たちは、植民地主義が歴史的に終わったとしても、その継続性に焦点をあててきた。新植民地主義の構造や言説は、すでに異なる「ポストコロニアル」文化の一 部となっている[64]。植民地化された国々が独立と自治を獲得したポストコロニアル時代は、民衆が自己決定と自由を取り戻すための手段であった。しか し、ポストコロニアル社会では、新植民地主義的な構造がいまだに蔓延している。国民国家は自治と自決の理念を掲げるかもしれないが、植民地主義の新たな形 態は常に出現している。植民地主義と自決の間のこの弁証法は、さまざまな分野を包含し、時代とともに形態、焦点、範囲が変化している。それは、「ポストコ ロニアル」諸国民と国家との間の複雑な政治的・政策的関係に反映されている。 健康、教育、住宅、公衆衛生、公共事業、雇用、司法など多様な分野における国家政策が、独立後も先住民に否定的な影響を与え続けていることは、歴史が明示 している[65]。このような政治的緊張と並行して、経済的利害は旧植民地から価値と資源を引き出すために、法律とガバナンスの枠組みを操作してきた。 デジタル・コロニアリズムとは、ソフトウェア、ハードウェア、ネットワーク接続という、デジタル・エコシステムの3本柱の集中的な所有と管理を通じて行使 される支配の構造的形態である。後者の3つを支配することで、巨大企業は個人だけでなく国民に対してさえも巨大な政治的、経済的、社会的権力を持つように なる[67]。 外国勢力の技術製品、モデル、イデオロギーへの同化は、インターネット時代の植民地化を構成する[68]。 今日、企業による植民地化の新たな形態が起こっている。土地の征服の代わりに、大企業はデジタル技術を植民地化している。以下の機能は、一握りの多国籍企 業によって支配されている: 検索エンジン(グーグル)、ウェブ・ブラウザ(グーグル・クローム)、スマートフォンやタブレットのオペレーティング・システム(グーグル・アンドロイ ド、アップルiOS)、デスクトップやラップトップのオペレーティング・システム(マイクロソフト・ウィンドウズ)、オフィス・ソフトウェア(マイクロソ フト・オフィス、グーグル・ドックス)、クラウド・インフラとサービス(アマゾン、マイクロソフト、グーグル、IBM)、ソーシャル・ネットワーキング・ プラットフォーム(フェイスブック、ツイッター)、交通機関(ウーバー、リフト)、ビジネス・ネットワーキング(マイクロソフト・リンクトイン)、スト リーミング・ビデオ(グーグル・ユーチューブ、ネットフリックス、フールー)、オンライン広告(グーグル、フェイスブック)などだ。これらの企業には、時 価総額が合計3兆ドルを超える、世界で最も裕福な5つの企業が含まれている[69]。どの国民国家も、これらのビッグテック製品を自国社会に統合すれば、 これらの多国籍企業は自国経済に対する巨大な権力を手に入れ、永続的な資源採掘につながる技術的依存関係を作り出すことになる[要出典]。これは、植民地 がさらなる搾取のために植民地の経済に依存させられた植民地時代に似ている。 デジタル植民地主義のもとでは、グローバル・サウスにおけるデジタル・インフラは大企業のニーズに合わせて設計され、経済的・文化的支配を可能にすると同 時に、民営化された統治形態を押し付けている。これによって彼らは、賃貸料から得られる収益から利益を蓄積し、情報の流れや社会活動、そして自社のテクノ ロジーを利用するその他多くの政治的、社会的、経済的、軍事的機能を支配することができる。 デジタル植民地主義はコードに依存している。コード: And Other Laws of Cyberspace)』において、ローレンス・レッシグは、コンピュータ・コードがコンピュータを介した経験のルール、規範、行動を形成していると論じ た。その結果、社会の政治的、経済的、文化的領域に影響を与える法的、制度的、社会的規範を簒奪する力を持つという意味で、「コードは法律である」。この 批判的洞察は、著作権、言論の自由規制、インターネット・ガバナンス、ブロックチェーン、プライバシー、さらには不法行為といった分野にまで応用されてい る[71]。これは植民地主義時代の物理的空間における建築に似ている。建物やインフラは植民地主義の支配力と影響力を強化するために建設された [72]。 「ポストコロニアル」の人々は、ネットワーク化されたデジタル・インフラへのアクセスや利用において、複数のデジタル的な制限に直面している。後者は、植 民地主義と継続的な新植民地主義のプロセスに根ざした既存の社会的不平等関係を反映し、再編成する恐れがある。先住民はこの可能性を痛感しており、さまざ まなパートナーと協力してデジタル領域の脱植民地化に取り組んでいる。彼らは、自己決定への共通の願望とともに、彼らの多様で地域に根ざした経験を代表す る様々なプロジェクトに取り組んでいる[要出典]。農村部や遠隔地の先住民コミュニティは、植民地主義の歴史的かつ継続的な影響に関連するデジタルへの持 続的なアクセス問題に直面している。先住民は、オンラインコミュニティを構築し、バーチャルなアイデンティティを表現し、自分たちの文化をバーチャルに表 現するためにこれらのプラットフォームを利用することで、デジタルな自己決定を主張している。したがって、彼らはもはやオフラインのような静的な存在では なく、「ネットワーク化された個人主義」になりつつある[74]。彼らのデジタル圏への関与は、彼らのアイデンティティの押しつけられた表象に抵抗し、 バーチャル・コミュニティの概念を非領土化する。したがって、かつて植民地化された人々は、インターネットを支配している潜在的な新植民地的/植民地的言 説を脱植民地化するプロセスに常に従事している。 |
| Digital Apartheid Digital apartheid has also been a key concept in debates around digital self-determination. For authors such as Christian Fuchs, digital apartheid means that "certain groups and regions of the world are systematically excluded from cyberspace and the benefits that it can create."[75] Brown and Czerniewicz (2010), drawing on a research project interrogating the access of higher education students in South Africa to Information and Communications Technology (ICT), highlight that while age or generational aspects have been a characteristic of digital divides, now the latter are rather a question of access and opportunity, claiming that in the present day "digital apartheid is alive and well."[76] Borrowing from Graham (2011),[77] and extending to the representation of conditions surrounding higher education in post-apartheid South Africa, Ashton et al. (2018)[78] highlight the concept of digital apartheid as a multidimensional process with three dimensions - a material dimension (including access to infrastructure, device, cellular coverage, electricity), a skills dimension (including education legacy regarding computer training, social capital with regard to the family/community computer skills), and a virtual dimension (including language, culture and contextual relevance). The authors argue that "The virtual dimension emerges from the intentional act of 'digital redlining' which takes on a number of forms. It may be under the guise of protecting an organisation from spam and illicit, harmful cyber-attacks, but has the secondary outcome of blocking or filtering out communities who only have access through cheaper portals."[78] It also includes the influence of the Westernised, English internet that further influences content visibility. The skills dimension emerges from an understanding where ICT lessons were not a part of the curriculum until recently and therefore the skill development remained underexposed and restricted. The authors refer to the material dimension as the most cited concern regarding introducing technology as part of the curriculum, arguing that "the lack of power infrastructure in lower socio-economic areas and exorbitant data costs, impact some students' ability to access their learning resources."[78] Since 2019, this concept signifying advantages to some and dispossession of some others has also been used to characterize internet shutdowns and communications blockades in Jammu and Kashmir. The region, contested and claimed by both India and Pakistan in its entirety and a site of an active armed conflict, witnessed the Indian State imposing a total communication blackout and internet shutdown in Jammu and Kashmir on the intervening night of 4 and 5 August 2019 as part of its unilateral measures to remove the semi-autonomous nature of the disputed territory of Jammu and Kashmir.[79] Low speed 2G internet was restored in January 2020[80] while high speed 4G internet was restored in February 2021.[81] A 2019 report notes that between 2012 and 2019, there have been 180 internet shutdowns in the region.[82] India also topped the list of 29 countries that had disrupted access to the internet for the people in the year 2020.[83] The report by Access Now highlighted, "India had instituted what had become a perpetual, punitive shutdown in Jammu and Kashmir beginning in August 2019. Residents in these states had previously experienced frequent periodic shutdowns, and in 2020 they were deprived of reliable, secure, open, and accessible internet on an ongoing basis."[83] In placing these frequent shutdowns in the context of the ongoing conflict in Kashmir, the report Kashmir's Internet Siege (2020) by the Jammu Kashmir Coalition of Civil Society argues that with the frequent internet shutdowns, the Indian government has been enacting in these regions a "digital apartheid," "a form of systemic and pervasive discriminatory treatment and collective punishment."[84] According to the report, "frequent and prolonged internet shutdowns enact a profound digital apartheid by systematically and structurally depriving the people of Kashmir of the means to participate in a highly networked and digitised world."[84] This systematic censorship and deprivation not only resulted in excluding the people, collectively, from participating in cyberspace, but as was evident, it crippled IT companies and startups in Kashmir. It was noted to have affected at least a thousand employees working in this sector[85] just in the third month of the world's longest internet shutdown that began on the intervening night of 4 and 5 August 2019 across Jammu and Kashmir.[84] In a statement, UN Special Rapporteurs referred to the communication blackout as a collective punishment without any pretext of precipitating offence. "The shutdown of the internet and telecommunication networks, without justification from the Government, are inconsistent with the fundamental norms of necessity and proportionality," the experts said.[86] A news report quoting the story of an entrepreneur who had been doing well with a startup noted that the "Internet is the oxygen for start-ups. The Centre pulled that plug on August 5. The virtual world was our space for growth. Now that's gone. All employees and producers have been rendered jobless [..] I have to work by hook or by crook to meet the damage inflicted by loss of customers, undelivered orders and accumulated goods after the non-availability of Internet."[87] In June 2020, it was reported for the first time how non-local companies were able to bag a majority of contracts online for mining of mineral blocks, as locals were left at a disadvantage due to the ban on high speed internet.[88] The effect of this digital apartheid was also witnessed during the lockdown induced by the COVID-19 pandemic leaving the healthcare infrastructure crippled as doctors complained about not being able to access information or attend trainings on coronavirus owing to the restricted internet. The president of the Doctors Association noted that the awareness drives that were carried out elsewhere about the virus were impossible to run in Kashmir. "We want to educate people through videos, which is not possible at 2G speed. We are handicapped in the absence of high speed internet."[89] Health experts and the locals warned that the internet blackout was hampering the fight against coronavirus in the region.[90] The internet shutdown also affected education across all levels in the region. News reports noted how Kashmiri education was left behind even as life elsewhere was moving online in dealing with the stay-at-home guidelines during the pandemic.[91] A news report after a year of the communication blackout and subsequent restriction on high-speed internet highlighted that it had "ravaged health, education, entrepreneurship" in the region.[92] |
デジタル・アパルトヘイト デジタル・アパルトヘイトは、デジタル自決をめぐる議論においても重要な概念である。クリスチャン・フックス(Christian Fuchs)のような著者にとって、デジタル・アパルトヘイトとは、「世界の特定のグループや地域が、サイバースペースやそれが生み出す利益から組織的に 排除されている」ことを意味する[75]。 BrownとCzerniewicz(2010)は、南アフリカの高等教育機関 の学生の情報通信技術(ICT)へのアクセスを調査する研究プロジェ クトをもとに、年齢や世代的な側面がデジタル・デバイドの 特徴であったが、現在では、後者はむしろアクセスと機会の問 題であると強調し、現代において「デジタル・アパルトヘイトは健在 である」と主張している[76]。 Graham(2011)[77]を引用し、アパルトヘイト後の南アフリカにおける高等教育を取り巻く状況の表現に拡張して、Ashtonら(2018) [78]は、デジタル・アパルトヘイトの概念を、3つの次元-物質的な次元(インフラ、デバイス、携帯電話圏、電気へのアクセスを含む)、スキルの次元 (コンピュータ・トレーニングに関する教育遺産、家族/コミュニティのコンピュータ・スキルに関する社会資本を含む)、仮想的な次元(言語、文化、文脈の 関連性を含む)を持つ多次元的なプロセスとして強調している。著者は、「バーチャルな次元は、さまざまな形をとる『デジタル・レッドライニング』という意 図主義的な行為から生まれる。それは、スパムや不正で有害なサイバー攻撃から組織を守るという名目かもしれないが、安価なポータルサイトを通じてしかアク セスできないコミュニティをブロックしたり、フィルタリングしたりするという二次的な結果をもたらす。スキルの次元は、最近までICTの授業がカリキュラ ムの一部ではなかったため、スキルの向上が過小評価され、制限されたままであったという理解から浮かび上がってくる。著者らは、カリキュラムの一部として テクノロジーを導入することに関する懸念として最も挙げられている物質的な次元に言及し、「社会経済的に低い地域における電力インフラの欠如と法外なデー タコストが、一部の生徒が学習リソースにアクセスする能力に影響を与えている」と論じている[78]。 2019年以降、一部の者にとって有利になり、一部の者が奪われることを意味するこの概念は、ジャンムー・カシミールにおけるインターネット遮断や通信封 鎖を特徴づけるためにも使われている。この地域は、その全体がインドとパキスタンの双方によって争われ、主張され、活発な武力紛争の場となっているが、イ ンド国家は、紛争地域であるジャンムー・カシミールの半自治領的性格を取り除くための一方的な措置の一環として、2019年8月4日と5日の夜を挟んで、 ジャンムー・カシミールにおける全面的な通信遮断とインターネット・シャットダウンを実施するのを目撃した。[79] 低速の2Gインターネットは2020年1月に復旧し[80]、高速の4Gインターネットは2021年2月に復旧した[81] 2019年の報告書は、2012年から2019年の間に、この地域で180件のインターネット停止があったと指摘している[82] インドはまた、2020年に国民のインターネットへのアクセスを中断させた29カ国のリストのトップになった[83] Access Nowによる報告書は、「インドは2019年8月からジャンムー・カシミール州で恒久的で懲罰的なシャットダウンとなったものを実施していた」と強調し た。これらの州の住民は、以前から頻繁に定期的なシャットダウンを経験していたが、2020年には、信頼性が高く、安全で、オープンでアクセス可能なイン ターネットを継続的に奪われることになった。"[83]こうした頻繁なシャットダウンを現在進行中のカシミール紛争の文脈に置きながら、市民社会ジャン ム・カシミール連合による報告書『Kashmir's Internet Siege』(2020年)は、頻繁なインターネット・シャットダウンによって、インド政府はこれらの地域で「デジタル・アパルトヘイト」、「体系的で広 範な差別的扱いや集団処罰の一形態」を実施していると論じている。「報告書によれば、「頻繁かつ長期にわたるインターネットの遮断は、高度にネットワーク 化されデジタル化された世界に参加する手段をカシミールの人々から組織的かつ構造的に奪うことによって、深刻なデジタル・アパルトヘイトを実現している」 [84]。 この組織的な検閲と収奪は、人々を集団的にサイバースペースへの参加から排除する結果となっただけでなく、明らかなように、カシミールのIT企業や新興企 業を機能不全に陥れた。2019年8月4日と5日の夜を挟んでジャンムー・カシミール全域で始まった世界最長のインターネット遮断の3カ月目だけに、この 部門で働く少なくとも1000人の従業員[85]が影響を受けたと指摘されている[84]。 声明で国連特別報告者は、通信遮断を犯罪を誘発する口実のない集団的懲罰と言及した。政府による正当な理由のないインターネットと通信網の遮断は、必要性 と比例性という基本的な規範と矛盾している」と専門家は述べた[86]。新興企業でうまくいっていた起業家の話を引用した報道は、「インターネットは新興 企業にとって酸素だ」と指摘した。中央政府は8月5日にその栓を抜いた。バーチャルの世界は私たちの成長の場だった。今、それはなくなってしまった。すべ ての従業員と生産者は職を失った......私は、インターネットが利用できなくなったことで顧客を失い、注文が届かず、商品が溜まったことで被った損害 に対応するために、手段を選ばず働かなければならない」[87]。2020年6月には、高速インターネットが禁止されたことで地元の人々が不利な状況に置 かれたため、地元以外の企業が鉱区の採掘の契約の大半をオンラインで獲得できたことが初めて報告された[88]。 このデジタル・アパルトヘイトの影響は、COVID-19のパンデミックによって医療インフラが機能不全に陥り、医師たちがインターネットが制限されてい るために、コロナウイルスに関する情報にアクセスできなかったり、研修に参加できなかったりしたことに不満を漏らした封鎖時にも見られた。医師会の会長 は、カシミールでは他の地域で行われているウイルスに関する啓蒙活動は不可能であると指摘した。「我々はビデオを通して人々に啓蒙したいが、2Gのスピー ドでは不可能である。高速インターネットがないため、私たちはハンディキャップを背負っている」[89]。健康専門家と地元の人々は、インターネットの停 電がこの地域のコロナウイルスとの闘いを妨げていると警告した[90]。インターネットの停止は、この地域のあらゆるレベルの教育にも影響を与えた。 ニュース報道では、パンデミック時の自宅待機のガイドラインに対処するために、他の地域では生活がオンライン化されていたにもかかわらず、カシミールの教 育がいかに取り残されていたかが指摘された[91]。通信の遮断とそれに続く高速インターネットの制限から1年後のニュース報道では、それが地域の「健 康、教育、起業家精神を荒廃させた」ことが強調された[92]。 |
| Regulating for digital self-determination The legal landscape Promoting concepts and rights which are closely related to digital self-determination is a common goal behind regulatory initiatives in various legal systems. Stemming from the conceptual framework of human rights, and a well-established notion of informational self-determination, digital self-determination gradually comes to play an increasingly important role as a concept that encompasses values and virtues which remain highly relevant in the context of the global network society, such as autonomy, dignity, and freedom. The importance of embedding the fundamental values into the legislative frameworks regulating the digital sphere has been stressed numerous times by scholars,[93] public authorities, and representatives of various organizations. The EU's legal policy, while not explicitly referencing a right to digital self-determination, pursues closely related objectives. One of the overarching premises of the European Digital Strategy is to encourage the development of trustworthy technology that "works for the people".[94] It aims at advancing, among other things, "human-centered digital public services and administration", as well as "ethical principles for human-centered algorithms". The EU has outlined these policy goals in several regulatory agendas including i.a. the EU Commission Digital Strategy, the European Data Strategy, and the EU's White Paper on Artificial Intelligence. Subsequently, the EU has pursued the abovementioned objectives through the adoption or proposal of several legal instruments including: The General Data Protection Regulation, aimed at laying down "rules relating to the protection of natural persons with regard to the processing of personal data and rules relating to the free movement of personal data", protecting "fundamental rights and freedoms of natural persons and in particular their right to the protection of personal data" and guaranteeing "the free movement of personal data within the Union". The main provisions relating to the concept of digital self-determination include principles of data processing (e.g. fairness, transparency, and accountability), grounds for legitimate data processing (notably consent and legitimate interests), rights of data subjects (e.g. the right to be informed, right to be forgotten, right to object), right to data portability, obligations associated with privacy-by-design and privacy-by-default, rights and obligations concerning algorithmic data processing (notably profiling and automated decision-making), and obligations concerning data transfers outside the European Economic Area. The ePrivacy Regulation, a legislative proposal aimed at regulating the issues concerning electronic communications within the EU, including confidentiality of communications, privacy controls through electronic consent and browsers, and cookies. The Digital Services Act, a legislative proposal aimed at harmonizing rules regarding digital intermediary services, most notably illegal content, transparent advertising, disinformation on social media platforms, and content recommending systems, while preserving freedom of expression. The DSA is one of two proposals of the Digital Services Act package. The Digital Markets Act, a legislative proposal aimed at regulating the performance of the large online platforms acting as "gatekeepers" in the European Single Market, thus guaranteeing fair competition and "leveling the playing field". The DMA is one of two proposals of the Digital Services Act package. The Regulation on Artificial Intelligence, a legislative proposal aimed at providing developers, deployers, and users with clear requirements and obligations regarding specific uses of AI. The draft regulation introduces i.a. a catalog of prohibited AI practices that distort the behavior of the individual in a manner that can lead to physical or mental harm. The Data Governance Act and the Open Data Directive, legislative proposals aimed at creating trustworthy data-sharing systems which will empower the EU citizens to decide about sharing their data across sectors and the Member States, while increasing the annual economic value of data sharing in the EU and creating social and economic benefits.[95] The Copyright Directive,[96] aiming to protect intellectual property and, consequently, intellectual work. However, it contains a difficult and controversial balance with another aspect of self-determination, which is freedom of speech (especially Article 17). The Audiovisual Media Services Directive,[97] regulating the freedom of information in the domain of Audiovisual Media Services as well as the liability of the platforms. The U.S. has yet to introduce a comprehensive information privacy law; legislation pertaining to data and digital rights currently exists at both the state and federal level and is often sector-specific. In the United States, The Federal Trade Commission (FTC) is tasked with overseeing the protection of consumers' digital privacy and security, outlining fair information practice principles for the governance of online spaces.[98] Federal legislation includes the Children's Online Privacy Protection Act (COPPA) which regulates the collection of personally identifiable information from children under the age of thirteen online. The Health Insurance Portability and Accountability Act (HIPAA) includes federal standards for protecting the privacy and security of personal health data stored electronically. The Family Educational and Rights Privacy Act (FERPA) governs access to and the disclosure of student educational records. While state legislation varies in the strength of their protections, the California Consumer Privacy Act (CCPA) of 2018 provides California consumers with the right to access data, know and delete personal information collected by businesses, opt-out of the sale of this information, and the right to non-discrimination for exercising these rights. Ethical and rights-based principles for AI Artificial intelligence and digital self-determination The proliferation of artificial intelligence (AI), as not a single technology but rather a set of technologies,[99] is increasingly shaping the technologically mediated spaces for individuals and communities to conduct their lives. From algorithmic recommendation in e-commerce[100] and social media platforms,[101] smart surveillance in policing,[102] to automated resources allocation in public services,[103] the extent of possible AI applications that can influence an individual's autonomy is continuously contested, considering the widespread datafication of people's lives across the socio-economic and political spheres today. For example, machine learning, a subfield of artificial intelligence, "allows us to extract information from data and discover new patterns, and is able to turn seemingly innocuous data into sensitive, personal data",[104] meaning an individual's privacy and anonymity may be prone to vulnerabilities outside of the original data domain, such as having their social media data harvested for computational propaganda in the election based on micro-targeting.[105] Another sphere where AI systems can affect the exercising of self-determination is when the datasets on which algorithms are trained mirror the existing structures of inequality, thereby reinforcing structural discrimination that limits certain groups' access to fair treatment and opportunities. In the United States, an AI recruiting tool used by Amazon has shown to discriminate against female job applicants,[106] while an AI-based modelling tool used by the Department of Human Services in Allegheny County, Pennsylvania, to flag potential child abuse has shown to disproportionately profile the poor and racial minority, raising questions about how predictive variables in algorithms could often be "abstractions" that "reflect priorities and preoccupations".[107] Current landscape of AI principles relevant to digital self-determination How states attempt to govern the AI industry can shape how AI applications are developed, tested and operated and in what ethical frameworks relevant to many forms of human interests, thereby affecting the degree of digital self-determination exercised by individuals and communities. In recent years, there has been a proliferation of high-level principles and guidelines documents,[108] providing suggestions for public-sector policies and private-sector code of conduct in a non-binding manner. Compared to the binding laws enacted by states, the landscape of AI ethics principles paints a more diverse picture, with governmental and nongovernmental organisations including private companies, academic institutions and civic society actively developing the ecosystem. A 2020 report by the United Nations identified "over 160 organizational, national and international sets of AI ethics and governance principles worldwide, although there is no common platform to bring these separate initiatives together".[109] Common themes of AI principles have been emerging as research efforts develop, with many closely linked to the various conditions of digital self-determination, such as control over one's data, protection from biased treatment, and equal access to the benefits offered by AI. A 2020 publication by the Berkman Klein Center for Internet and Society at Harvard University studied thirty-six "especially visible or influential" AI principles documents authored by government and non-governmental actors from multiple geographical regions, and identified eight key themes: Privacy Accountability Safety and Security Transparency and Explainability Fairness and Non-discrimination Human Control of Technology Professional Responsibility Promotion of Human Values However, the report also notes "a wide and thorny gap between the articulation of these high-level concepts and their actual achievement in the real world".[110] |
デジタル自己決定のための規制 法的状況 デジタル自己決定と密接に関連する概念や権利を促進することは、様々な法制度における規制の取り組みの背景にある共通の目標である。人権の概念的枠組み や、情報的自己決定という確立された概念に由来するデジタル自己決定は、自律性、尊厳、自由など、グローバルなネットワーク社会の文脈で高い関連性を保ち 続ける価値や美徳を包含する概念として、次第に重要な役割を果たすようになる。 デジタル領域を規制する法的枠組みに基本的価値を組み込むことの重要性は、学者や[93]公的機関、様々な組織の代表によって何度も強調されてきた。 EUの法政策は、デジタル自己決定権に明確に言及しているわけではないが、密接に関連した目的を追求している。欧州デジタル戦略の包括的な前提のひとつ は、「人々のために働く」信頼できる技術の開発を奨励することである[94]。それはとりわけ、「人間中心のデジタル公共サービスと行政」、そして「人間 中心のアルゴリズムのための倫理原則」を推進することを目指している。 EUはこれらの政策目標を、EU委員会のデジタル戦略、欧州データ戦略、EUの人工知能白書など、いくつかの規制アジェンダで概説している。その後、EUは、以下のようないくつかの法的文書の採択や提案を通じて、上記の目標を追求してきた: 一般データ保護規則は、「個人データの処理に関する人格の保護に関する規則および個人データの自由な移動に関する規則」を定め、「自然人の基本的権利およ び自由、特に個人データの保護を受ける権利」を保護し、「EU域内における個人データの自由な移動」を保証することを目的としている。デジタル自己決定の 概念に関連する主な規定には、データ処理の原則(公平性、透明性、説明責任など)、正当なデータ処理の根拠(特に同意と正当な利益)、データ主体の権利 (知らされる権利、忘れられる権利、異議申し立ての権利など)、データ・ポータビリティの権利、プライバシー・バイ・デザインとプライバシー・バイ・デ フォルトに関連する義務、アルゴリズムによるデータ処理(特にプロファイリングと自動意思決定)に関する権利と義務、欧州経済領域外へのデータ移転に関す る義務などが含まれる。 eプライバシー規則(ePrivacy Regulation):通信の秘密、電子同意やブラウザによるプライバシー管理、クッキーなど、EU域内の電子通信に関する問題を規制することを目的とした立法案。 デジタルサービス法は、表現の自由を守りつつ、デジタル仲介サービス、特に違法コンテンツ、透明性のある広告、ソーシャルメディアプラットフォーム上の偽 情報、コンテンツ推奨システムに関する規則の調和を目的とした立法案である。DSAは、デジタルサービス法パッケージの2つの提案のうちの1つである。 デジタル市場法(Digital Markets Act)は、欧州単一市場において「ゲートキーパー」として機能する大規模オンライン・プラットフォームのパフォーマンスを規制することで、公正な競争を 保証し、「競争条件を公平にする」ことを目的とした立法案である。DMAは、デジタルサービス法パッケージの2つの提案のうちの1つである。 人工知能規制は、開発者、導入者、利用者に、AIの特定用途に関する明確な要件と義務を提供することを目的とした立法案である。同規則案は、身体的または精神的危害につながる可能性のある方法で個人の行動を歪めるような、禁止されたAI慣行のカタログを導入している。 データ・ガバナンス法およびオープンデータ指令は、EUにおけるデータ共有の年間経済価値を増加させ、社会的・経済的便益を創出する一方で、EU市民がセ クターや加盟国を越えてデータの共有について決定する権限を与える、信頼できるデータ共有システムの構築を目的とした立法案である[95]。 著作権指令[96]は、知的財産、ひいては知的著作物を保護することを目的としている。しかし、この指令は、言論の自由(特に第17条)という自己決定のもう一つの側面とのバランスが難しく、議論を呼んでいる。 視聴覚メディアサービス指令[97]は、視聴覚メディアサービスの領域における情報の自由とプラットフォームの責任を規制するものである。 米国では、包括的な情報プライバシー法はまだ導入されていない。現在、データとデジタルの権利に関連する法律は州レベルと連邦レベルの両方に存在し、多く の場合、分野別である。米国では、連邦取引委員会(FTC)が消費者のデジタル・プライバシーとセキュリティの保護を監督する任務を負っており、オンライ ン空間のガバナンスのための公正な情報慣行原則を概説している[98]。 連邦法には、児童オンラインプライバシー保護法(Children's Online Privacy Protection Act、COPPA)があり、13歳未満の児童からの個人を特定できる情報のオンラインでの収集を規制している。健康保険の相互運用性と説明責任に関する 法律(HIPAA)には、電子的に保存された個人健康データのプライバシーとセキュリティを保護するための連邦基準が含まれている。Family Educational and Rights Privacy Act (FERPA)は、学生の教育記録へのアクセスと開示について規定している。州法はその保護の強さに違いがあるが、2018年のカリフォルニア州消費者プ ライバシー法(CCPA)は、カリフォルニア州の消費者に、データにアクセスする権利、企業が収集した個人情報を知り、削除する権利、この情報の販売をオ プトアウトする権利、およびこれらの権利を行使することによる無差別の権利を提供している。 AIの倫理と権利に基づく原則 人工知能とデジタル自己決定 人工知能(AI)の普及は、単一の技術ではなく、むしろ一連の技術[99]として、個人やコミュニティが生活を営むための技術的に媒介された空間をますま す形成しつつある。電子商取引[100]やソーシャル・メディア・プラットフォームにおけるアルゴリズムによる推奨[101]から、警察におけるスマート な監視[102]、公共サービスにおける自動化された資源配分[103]に至るまで、今日の社会経済的・政治的領域における人々の生活の広範なデータ化を 考慮すると、個人の自律性に影響を及ぼす可能性のあるAIの応用範囲は絶えず争われている。 例えば、人工知能の一分野である機械学習は、「データから情報を抽出し、新たなパターンを発見することを可能にし、一見無害に見えるデータを機密性の高い 個人的なデータに変えることができる」[104]ため、個人のプライバシーや匿名性は、マイクロターゲティングに基づく選挙における計算プロパガンダのた めにソーシャルメディアデータを採取されるなど、元のデータ領域以外の脆弱性に陥りやすい可能性がある[105]。 AIシステムが自己決定の行使に影響を及ぼしうるもう一つの領域は、アルゴリズムが学習されるデータセットが既存の不平等構造を映し出し、それによって特 定の集団が公正な待遇や機会へのアクセスを制限する構造的差別を強化する場合である。米国では、アマゾンが使用したAIリクルーティングツールが女性の求 職者を差別していることが示されている[106]。一方、ペンシルベニア州アレゲニー郡の福祉局が潜在的な児童虐待にフラグを立てるために使用したAI ベースのモデリングツールは、貧困層や人種的マイノリティを不当にプロファイルしていることが示されており、アルゴリズムにおける予測変数が、しばしば 「優先順位や先入観を反映する」「抽象的なもの」である可能性について疑問を投げかけている[107]。 デジタル自己決定に関連するAIの原則の現在の状況 国家がAI産業をどのように統治しようとするかによって、AIアプリケーションがどのように開発され、テストされ、運用され、どのような倫理的枠組みの中 で多くの人間の利益に関連するのかが形成され、それによって個人やコミュニティが行使するデジタル自己決定の程度に影響を及ぼす可能性がある。 近年、ハイレベルの原則やガイドライン文書が急増しており[108]、公共部門の政策や民間部門の行動規範に対する示唆を拘束力のない形で提供している。 国家によって制定された拘束力のある法律と比較すると、AI倫理原則の状況は、民間企業、学術機関、市民社会を含む政府・非政府組織が積極的にエコシステ ムを発展させており、より多様な様相を呈している。国連による2020年の報告書では、「世界中で160を超える組織的、国家的、国際的なAI倫理原則と ガバナンス原則のセットが確認されているが、これらの個別のイニシアティブをまとめる共通のプラットフォームは存在しない」とされている[109]。 AIの原則の共通テーマは、研究活動が発展するにつれて浮かび上がってきており、その多くは、自分のデータの管理、偏った扱いからの保護、AIが提供する 利益への平等なアクセスといった、デジタル自己決定の諸条件と密接に結びついている。ハーバード大学バークマン・クライン・インターネット社会センターが 2020年に発表した論文では、複数の地域の政府・非政府関係者によって作成された「特に目につく、あるいは影響力のある」36のAI原則文書が調査さ れ、8つの主要テーマが特定された: プライバシー 説明責任 安全性とセキュリティ 透明性と説明可能性 公平性と無差別 技術のヒューマン・コントロール プロとしての責任 人間的価値の促進 しかし、報告書は「これらのハイレベルな概念の明確化と、現実世界における実際の達成との間には、広範かつ茨の道がある」とも指摘している[110]。 |
| Examples of intergovernmental and governmental AI principles Currently, few AI governance principles are internationally recognised. The "OECD Principles on AI", adopted by OECD Member States and nine other non-OECD countries in May 2019, integrates elements relevant to digital self-determination such as "inclusive growth", "well-being", "human-centered values and fairness", while emphasizing an individual's ability to appeal and "challenge the outcome of AI system" and the adherence of AI development to "internationally recognized labour rights".[111] On a national level, numerous state AI policies make reference to AI ethics principles, though in an irregular fashion. Such references can be standalone documents. For example, Japan's government established its "Social Principles of Human-Centric AI",[112] which is closely linked to its "AI strategy 2019: AI for Everyone: People, Industries, Regions and Governments",[113] and a separate set of AI Utilization Guidelines that encourage voluntary adherence and emphasize that AI shall be used to "expand human abilities and creativity", shall not "infringe on a person's individual freedom, dignity or equality", and adheres to the "principle of human dignity and individual autonomy".[114] AI principles can also be incorporated into a national AI strategy, which primarily focuses on policy instruments advancing AI, such as investment in STEM education and public-private partnerships. For example, India's AI strategy, "National Strategy for Artificial Intelligence" published in June 2018, identifies key areas of high national priority for AI development (healthcare, agriculture, education, urban-/smart-city infrastructure, transportation and mobility), with ethical topics such as privacy and fairness integrated as a forward-looking section.[115] Opportunities and challenges for AI principles to address self-determination Non-binding AI principles suggested by actors inside or outside the government might sometimes be further concretized into specific policy or regulation. In 2020, the United Kingdom's government's advisory body on the responsible use of AI, the Centre for Data Ethics and Innovation, proposed specific measures for government, regulators and industry to tackle algorithmic bias in the sectors of financial services, local government, policing and recruitment,[116] with each area relevant to how individuals conduct their ways of life and access socio-economic opportunities without being subjected to unfair treatment. Cultural and geographical representation has been highlighted as a challenge in ensuring the burgeoning AI norms sufficiently consider unique opportunities and risks faced by the global population, who exercise their autonomy and freedom in vastly different political regimes with varying degrees of rule of law. In 2020, a report published by the Council of Europe reviewed 116 AI principles documents and found that "these soft law documents are being primarily developed in Europe, North America and Asia", while "the global south is currently underrepresented in the landscape of organisations proposing AI ethics guidelines".[117] |
政府間および政府によるAI原則の例 現在、国際的に認知されているAIガバナンス原則はほとんどない。2019年5月にOECD加盟国及びOECD非加盟の他の9か国によって採択された 「AIに関するOECD原則」は、「包括的成長」、「幸福」、「人間中心の価値観と公正さ」といったデジタル自己決定に関連する要素を統合する一方で、個 人が不服を申し立て、「AIシステムの結果に異議を申し立てる」能力と、AI開発が「国際的に認められた労働者の権利」を遵守することを強調している [111]。 国民レベルでは、不定期ではあるが、多くの国のAI政策がAI倫理の原則に言及している。こうした言及は独立した文書であることもある。例えば、日本政府 は「人間中心AIの社会的原則」を制定しており[112]、これは「AI戦略2019:みんなのAI」と密接に結びついている: また、自主的な遵守を奨励し、AIは「人間の能力と創造性を拡大する」ために使用され、「人格の自由、尊厳、平等を侵害」してはならず、「人間の尊厳と個 人の自律性の原則」を遵守することを強調するAI活用ガイドラインを別途定めている[113]。 AIの原則は、STEM教育への投資や官民パートナーシップなど、AIを推進する政策手段に主眼を置いたナショナリズムに組み込むこともできる。例えば、 2018年6月に発表されたインドのAI戦略「人工知能のための国家戦略」では、AI開発のための国家的優先度の高い主要分野(ヘルスケア、農業、教育、 都市・スマートシティインフラ、交通・モビリティ)が特定されており、プライバシーや公平性といった倫理的なトピックが将来を見据えた項目として組み込ま れている[115]。 自己決定に取り組むAI原則の機会と課題 政府内外の関係者によって提案された拘束力のないAI原則は、時として、具体的な政策や規制に具体化されることがある。2020年、AIの責任ある利用に 関する英国政府の諮問機関であるデータ倫理・イノベーションセンターは、金融サービス、地方自治体、警察、人材採用の各分野におけるアルゴリズムの偏りに 取り組むための政府、規制当局、産業界に対する具体的な対策を提案した[116]。 急成長するAI規範が、法の支配の程度が大きく異なる政治体制で自治と自由を行使するグローバルな人々が直面する固有の機会とリスクを十分に考慮すること を保証する上での課題として、文化的・地理的な代表性が強調されてきた。2020年に欧州評議会が発表した報告書では、116のAI原則文書が検討され、 「これらのソフト・ロー文書は主に欧州、北米、アジアで策定されている」一方で、「AI倫理ガイドラインを提案する組織の状況において、グローバル・サウ スは現在のところ十分に代表されていない」ことが判明した[117]。 |
| Data sovereignty Digital citizenship Digital Identity Digital rights Digital integrity Digital self defence Informational self determination Self-determination Self representation Self-sovereign identity Surveillance capitalism Technological sovereignty |
データ主権 デジタルシティズンシップ デジタルアイデンティティ デジタルの権利 デジタルインテグリティ デジタル自己防衛 情報的自己決定 自己決定 自己代表 自己主権的アイデンティティ 監視資本主義 技術的主権 |
| References |
https://en.wikipedia.org/wiki/Digital_self-determination |
| https://en.wikipedia.org/wiki/Digital_self-determination |
|
リ ンク
文 献
そ の他の情報
CC
Copyleft,
CC, Mitzub'ixi Quq Chi'j, 1996-2099