はじめにかならず読んでください

機械翻訳その他の歴史年表

Historical timeline of machine translation and others, (西島 2019: 49を元に加筆)

解説:池田光穂

年代
論理主義
統計確率主義
批判的意見
ディプラーニング史
1943
1947
1954
1965
1968
1970-80年代前半

1947 ウィーバーが機械翻訳のアイディアの提唱
1950  アラン・チューリング「計算機と知能」論文
1954 
IBMとジョージタウン大学による初の機械翻訳研究
1965 ファイゲンバウムEdward Feigenbaum, 1936- )らによるエキスパートシステムの開発

ルールベースによる機械翻訳の時代
1943 マカロックとピッツの共同研究





1980 以降、統計機械翻訳のアイディアが発表される

1988 IBMが単語ベースの統計機械翻訳を提唱
1990 以降、統計機械の時代

2010 年代、ニューラル機械翻訳が主流となる



1965 ドレイファスの人工知能批判
1968 フレーム問題

1980 サールの強いAI,弱いAI,中国人の部屋の議論
1986 ウィノグラードの人工知能批判
1946 ENIAC

1956 ダートマス会議()

1970「おもちゃ問題」破綻

1980 エキスパートシステム
1990 ウェブページ
2000 機械学習が本格化
2010 自動運転
2012 DLの画像認識主流化
2015 Alpha GO 人間に勝つ
2005
シンギュラリティ伝道者カーツワイル『シンギュラリティは近い』を発刊。その内容は毀誉褒貶。荒唐無稽の部分は「AIの宗教化」ということができる。

2013 ヤン・ルカン「50年間にAI は4度『死んだ』」(フォード 2015:280)。
2014 May ステーヴン・ホーキンス「インデペンデント」にAIへの警鐘をならす記事を書く。共著者に、マックス・テグマーク、フランク・ウィルチェック、スチュアー ト・ラッセル(フォード 2015:277)。

Artificial intelligence (AI) is intelligence demonstrated by machines, as opposed to the natural intelligence displayed by animals including humans. AI research has been defined as the field of study of intelligent agents, which refers to any system that perceives its environment and takes actions that maximize its chance of achieving its goals. The term "artificial intelligence" had previously been used to describe machines that mimic and display "human" cognitive skills that are associated with the human mind, such as "learning" and "problem-solving". This definition has since been rejected by major AI researchers who now describe AI in terms of rationality and acting rationally, which does not limit how intelligence can be articulated.
人工知能(AI)とは、人間を含む動物が示す自然知能に対して、機械が 示す知能のことである。AI研究は、知的エージェントの研究分野と定義されており、環境を認識し、目標達成の可能性を最大化する行動をとるあらゆるシステ ムを指す。人工知能」という言葉は、以前は「学習」や「問題解決」など、人間の心に関連する「人間的」な認知能力を模倣し、表示する機械を指す言葉として 使われていた。その後、この定義は主要なAI研究者によって否定され、現在ではAIを合理性と合理的な行動という観点から説明しており、知能の表現方法を 限定するものではない。
Machine learning (ML) is a field of inquiry devoted to understanding and building methods that 'learn', that is, methods that leverage data to improve performance on some set of tasks. It is seen as a part of artificial intelligence. Machine learning algorithms build a model based on sample data, known as training data, in order to make predictions or decisions without being explicitly programmed to do so. Machine learning algorithms are used in a wide variety of applications, such as in medicine, email filtering, speech recognition, and computer vision, where it is difficult or unfeasible to develop conventional algorithms to perform the needed tasks. A subset of machine learning is closely related to computational statistics, which focuses on making predictions using computers, but not all machine learning is statistical learning. The study of mathematical optimization delivers methods, theory and application domains to the field of machine learning. Data mining is a related field of study, focusing on exploratory data analysis through unsupervised learning. Some implementations of machine learning use data and neural networks in a way that mimics the working of a biological brain. In its application across business problems, machine learning is also referred to as predictive analytics.
機械学習(ML)は、「学習」する手法、つまりデータを活用してあるタ スクのパフォーマンスを向上させる手法を理解し構築することに専念する研究分野である。機械学習は、人工知能の一部と考えられている。機械学習アルゴリズ ムは、学習データと呼ばれるサンプルデータに基づいてモデルを構築し、明示的にプログラムされていなくても予測や判断を行えるようにするものである。機械 学習アルゴリズムは、医療、電子メールのフィルタリング、音声認識、コンピュータビジョンなど、必要なタスクを実行するために従来のアルゴリズムを開発す ることが困難、または実行不可能な幅広いアプリケーションで使用されている。機械学習の一部は、コンピュータを使って予測を行うことに重点を置いた計算統計学と密接に関係しているが、すべての機械学習が統計学習というわけではない。 数理最適化の研究は、機械学習の分野に手法、理論、応用領域を提供している。また、データマイニングは、教師なし学習による探索的なデータ解析に特化した 研究分野である。機械学習の実装の中には、生物学的な脳の働きを模倣する形でデータとニューラルネットワークを使用するものもある。ビジネス上の問題に適 用される場合、機械学習は予測分析とも呼ばれる。
Deep learning (also known as deep structured learning) is part of a broader family of machine learning methods based on artificial neural networks with representation learning. Learning can be supervised, semi-supervised or unsupervised. Deep-learning architectures such as deep neural networks, deep belief networks, deep reinforcement learning, recurrent neural networks, convolutional neural networks and Transformers have been applied to fields including computer vision, speech recognition, natural language processing, machine translation, bioinformatics, drug design, medical image analysis, climate science, material inspection and board game programs, where they have produced results comparable to and in some cases surpassing human expert performance. Artificial neural networks (ANNs) were inspired by information processing and distributed communication nodes in biological systems. ANNs have various differences from biological brains. Specifically, artificial neural networks tend to be static and symbolic, while the biological brain of most living organisms is dynamic (plastic) and analogue. The adjective "deep" in deep learning refers to the use of multiple layers in the network. Early work showed that a linear perceptron cannot be a universal classifier, but that a network with a nonpolynomial activation function with one hidden layer of unbounded width can. Deep learning is a modern variation which is concerned with an unbounded number of layers of bounded size, which permits practical application and optimized implementation, while retaining theoretical universality under mild conditions. In deep learning the layers are also permitted to be heterogeneous and to deviate widely from biologically informed connectionist models, for the sake of efficiency, trainability and understandability, hence the "structured" part.
ディープラーニング(深層構造学習とも呼ばれる)は、表現学習を用いた 人工ニューラルネットワークに基づく、より幅広い機械学習手法のファミリーの一部である。学習は、教師あり、半教師あり、教師なしができる。ディープ ニューラルネットワーク、ディープビリーフネットワーク、ディープ強化学習、リカレントニューラルネットワーク、畳み込みニューラルネットワーク、トラン スフォーマーなどの深層学習アーキテクチャは、コンピュータービジョン、音声認識、自然言語処理、機械翻訳、バイオインフォマティクス、ドラッグデザイ ン、医療画像解析、気候科学、材料検査、ボードゲームプログラムなどの分野に応用され、人間の専門家の性能と同等であったり時にはそれを超える結果を出し ている。人工ニューラルネットワーク(ANN)は、生体システムにおける情報処理や分散通信のノードにヒントを得て開発された。ANNは、生物の脳とは様 々な違いがある。具体的には、ほとんどの生物の生物脳が動的(可塑的)かつアナログであるのに対し、人工ニューラルネットワークは静的かつ記号的である傾 向がある。深層学習の「深い」という形容詞は、ネットワークに複数の層を使用することを意味する。初期の研究では、線形パーセプトロンは万能分類器になり 得ないが、非多項式活性化関数を持ち、幅が無限の隠れ層を1層持つネットワークは万能分類器になり得ることが示された。深層学習はその現代的なバリエー ションで、境界のある大きさの境界のない層の数に関係し、実用的な応用と最適化された実装を可能にし、かつ穏やかな条件下で理論的な普遍性を保持するもの である。深層学習では、効率性、訓練性、理解しやすさのために、層は異種であってもよく、生物学的情報に基づくコネクショニストモデルから大きく逸脱して もよいことになっており、それゆえ「構造化」された部分がある。
Federated learning (also known as collaborative learning) is a machine learning technique that trains an algorithm across multiple decentralized edge devices or servers holding local data samples, without exchanging them. This approach stands in contrast to traditional centralized machine learning techniques where all the local datasets are uploaded to one server, as well as to more classical decentralized approaches which often assume that local data samples are identically distributed./ Federated learning enables multiple actors to build a common, robust machine learning model without sharing data, thus allowing to address critical issues such as data privacy, data security, data access rights and access to heterogeneous data. Its applications are spread over a number of industries including defense, telecommunications, IoT, and pharmaceutics."-Federated learning. Federated Learning(連合=協調学習とも呼ばれる)は、ローカルなデータサンプルを保持する複数の分散型エッジデバイスまたはサーバー間で、データサンプル を交換することなくアルゴリズムを学習する機械学習技術である。このアプローチは、すべてのローカルデータセットが1つのサーバーにアップロードされる従 来の集中型機械学習技術や、ローカルデータサンプルが同一に分散していることを前提としたより古典的な分散型アプローチとは対照的である /Federated Learningにより、複数の関係者がデータを共有せずに共通の堅牢な機械学習モデルを構築できるため、データプライバシー、データセキュリティ、デー タアクセス権、異種データへのアクセスといった重要な問題に対処することが可能になる。その応用は、防衛、通信、IoT、薬剤など多くの産業に広がってい る。
脳が(従来の)コンピュータと異 なる点(カーツワイル 2007:175-180 池田のコメンタリー
脳の回路は遅い
脳は超並列処理ができる
脳はアナログもデジタルの現象も併用している
脳は自分自身で配線しなおす
脳の細部はほとんどランダム
脳は創発的な特性をもちいる
脳は不完全である
脳をもっている(/脳を使う)我々は矛盾している
脳は進化を利用する
脳は進化を利用する
パターンが大切である
脳はホログラフィ的である
脳は深く絡み合っている
脳には、各領域をまとめるアークテクチャーがある
脳の領域の設 計は、ニューロンの設計よりも単純である

【シンギュラリティを最初に予言したのはコン ピューティングの父フォン・ノイマンである】

シンギュラリティをレイ・カーツワイル(Ray Kurzweil, 1948- )[別項のパラグラフ参照]で表象するのは、AI思想の歴史を考えるときに根本的に誤解(=misrepreseuntation)を引き起こす。英国の 数学者、アーヴィング・ジョン・グッド(アイ・ジェイ= I. Jey, "Jack")(1916-2009)が1965年に書いた論文のなかに、「超高性能マシン」こそが人類の生き残りにかかると託宣めいた論文に書いたこと がきっかけである。実際にグッドは、2001, Space Odyssey (1968) にコンサルタントとして関わっていた。科学とSFが出会う場所が、ボブ・グッチョーネ創刊による雑誌『オムニ』(Omni, 1978-1995)である。この雑誌において、SF作家、ヴァーナー・ヴィンジが、シンギュラリティ(特異点)と、グッドがいう、計算機による知能爆発 を、こう呼んだのである。しかし、人口に膾炙した、この特異点のまえに、さらに重要なことがあることを私たちは忘れてはいけない。電子計算機(コンピュー タ)の父[=ノイマン型コンピュータ思想の父と呼ぶべきか]、フォン・ノイマン(Neumann Jáno; John von Neumann, Margittai Neumann János Lajos, Johannes Ludwig von Neumann, 1903-1957)こそが、その用語をつかって、予言めいた発言をしていたのである。

ジョン・フォン・ノイマンは、同僚であったスタニスラウ・ウラム(Stanislaw Ulam, 1909-1984) とかつて話している時に、人類は根本的な「シンギュラリティ」に達しており、その後の人間の世は永遠に変わってしまうと予言めいて話し手いたという。 (Ulam, S., 1958. John von Neumann, Bulletin of the American Mathematical Society 64(3, Part.2):1-49.)

■"Quite aware that the criteria of value in mathematical work are, to some extent, purely aesthetic, he once expressed an apprehension that the values put on abstract scientific achievement in our present civilization might diminish: "The interests of humanity may change, the present curiosities in science may cease, and entirely different things may occupy the human mind in the future." One conversation centered on the ever accelerating progress of technology and changes in the mode of human life, which gives the appearance of approaching some essential singularity in the history of the race beyond which human affairs, as we know them, could not continue" (Ulam, 1958:5).

【カーツワイル批判】

シンギュラリティ=技術的特異点(Technological Singularity, Singularity)という用語は「レイ・カーツワイルRay Kurzweil, 1948- ) によれば、「100兆の極端に遅い結合(シナプス)しかない人間の脳の限界を、人間と機械が統合された文明によって超越する」瞬間」が訪れるという、技術 論的終末論のことである。カーツワイルは、この終末論を展開するにあたり、人類のテクノロジーやコンピュータチップの計算効率の進化などを博引旁証して、 仔細に検討しているために、なぜ100兆という情報のノードが脳のシナプス結合と類推されるのか、また、それよりも低次の(例えば原索動物やイカなどの人 間よりも低次の)シナプス結合の総量しかもたない動物のふるまいを完全に模倣できるのかという議論などをしておらず、あくまでもシナプス結合が思考を構成 するという「シナプス結合総計中心主義」であることがわかる。そのため、カーツワイル氏には、全地球システムのICTがシンギュラリティを超えて、全地球 システムがはたして、我々と同じように「思考」しているかどうかということについては、我々は相変わらずシナプスレベル(=デカルトの確信レベルとしての「機械の中の幽霊」)でしか 「把握」できないというジレンマを抱えることを御存知ないわけである。さらに、人間とICT端末のハリブリッドな利用、つまりサイボーグ化により、我々は すでにシンギュラリティを超えて、すでに人間=機械状態(ドゥルーズとガタリの用語)になっていることは「ただ、単に知らない」だけなのかもしれない。

【シンギュラリティ到来に関する相対主義的な新仮説】

計算効率が大脳のそれを凌駕する条件をシンギュラリティと呼ぶ。その時点は計 算量の進歩だけで予言されてきた。しかし人間とりわけ学生の短 絡思考化=馬鹿化により前倒しになる点を、従来のシンギュラリティは考慮に入れなかった。ゆえにこれは理論計算上の誤りであった。以上QED

Ray Kurzweil
レイ・カーツワイル
1948- 
シンギュラリティ=技術的特異点 (Technological Singularity, Singularity)提唱者。自分の生身の頭脳情報をアップロードを希望。
Joseph Weizenbaum
J・ワイゼンバウム
1923-2008


H・ドレ イファス


John von Neumann,
フォン・ノイマン
1903-1957

I. J. Good
アーヴィング・ジョン・グッド
1916-2009

Stanislaw Ulam
スタニスラウ・ウラム
1909-1984

Slavoj Žižek
スラヴォイ・ジジェク
1949- 
ジジェク大全
Elon Reeve Musk
イーロン・マスク
1971-
イーロン・マスクとシンギュラリティ主義の精神)イーロン・マスクはAI研究を「核 兵器より危険」とまで主張しているらしい(マーティン・フォード 2020:9)
Martin Ford
マーティン・フォード

Martin Ford is a futurist and author focusing on artificial intelligence and robotics, and the impact of these technologies on the job market, economy and society. Rise of the Robots, 2015.(『ロボットの脅威』)
Yoshua Bengio
ヨシュア・ベンジオ

Univ. of Montreal【ディープラーニング/ニューラルネットワーク】
Stuart Russell
スチュアート・J・ラッセル

UC Berkeley
Geoffrey Hinton
ジェフリー・ヒントン

Univ. of Toronto and Google 【ディープラーニング/ニューラルネットワーク】彼は、ニューラルネットワークのバックプロパゲーション(Backpropagation)、ボルツマンマシン、オートエンコーダ、ディープ・ビリーフ・ネットワークの開発者の1人であり、オートエンコーダやディープ・ビリーフ・ネットワークはディープラーニングになった。
Nick Bostrom
ニック・ボストロム

Univ. of Oxford
Yann LeCun
ヤン・ルカン
1960-
Facebook【ディープラーニング /ニューラルネットワーク】
 Fei-Fei Li
フェイフェイ・リー

Stanford and Google(→「社会の価値 観が反映された技術をつくるために:フェイフェイ・リーが語る「人間中心のAI」への道(前編)」)
Demis Hassabis
デミス・ハサビス

DeepMind
Andrew Ng
アンドリュー・エン

AI Fund
Rana el Kaliouby
ラナ・エル・カリウビ

Affectiva
Daniela L. Rus
ダニエラ・ルス
1963- 
MIT,  MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) and head of its Distributed Robotics Lab.
James Manyika
ジェイムズ・マニカ

McKinsey
Gary Marcus
ゲアリー・マーカス

NYU
Barbara Grosz
バーバラ・J・グロース

Harvard
Judea Pearl
ジュディア・パール

UCLA
Jeff Dean
ジェフリー・ディーン

Google
Daphne Koller
ダフニー・コラー

Stanford
David Ferrucci
デイヴィッド・フェルッチ

Elemental Cognition
Rodney Brooks
ロドニー・ブルックス

Rethink Robotics
Cynthia Breazeal
シンシア・ブリジール

MIT
Josh Tenenbaum
ジョシュア・テネンバウム

MIT
Oren Etzioni
オーレン・エツィオーニ

Allen Institute for AI
Bryan Johnson
ブライアン・ジョンソン

Kernel
Avram Noam Chomsky
ノーム・チョムスキー
1928-
(フォード 2015:286)
Steven Arthur Pinker
スティーブン・ピンカー
1954-
(フォード 2015:286)
Max Erik Tegmark
マックス・テグマーク
1967-
(フォード 2015:286)
Gary F. Marcus
ゲイリー・マーカス
1970- 
(フォード 2015:286)
Paul Zachary Myers, PZ Myers
P.Z. マイヤーズ
1957-
(フォード 2015:287)
James Graham Ballard
ジェームズ・バラッド
1930-2009
(フォード 2015:288)
Richard Phillips Feynman
リチャード・ファインマン
1918-1988
(フォード 2015:291)"In a lecture held by 1965 Nobel Laureate in Physics Richard Feynman (1918–1988) on September 26th, 1985, the question of artificial general intelligence"



Kim Eric Drexler
K.エリック・ドレクスラー
1955-
ナノテクノロジーや分子機械の命名者 (フォード 2015:292)
William Nelson Joy
ビル・ジョイ
1954-
「なぜ未来は人間を必要としないのか」 (フォード 2015:294)
John Michael Crichton
マイケル・クライトン
1942-2008
小説家。ナノボットの捕食をテーマにす る小説『プレイ:獲物』の著者(フォード 2015:295)
Michio Kaku
ミチオ・カク(賀来 道雄)
1947-
(フォード 2015:298)
GPT-3
Elon Musk

Generative Pretrained Transformer 3
Machine Learning
機械学習
1959-
データから学ぶことが可能なアルゴリズ ムを作り出そうとするもの(フォード 2020:19)"The term machine learning was coined in 1959 by Arthur Samuel, an American IBMer and pioneer in the field of computer gaming and artificial intelligence"

deep learning
深層学習

人工ニューラルネットワーク。
backpropagation
誤差逆伝播法

バックプロパゲーション:機械学習において、ニューラルネットワークを学習させ る際に用いられるアルゴリズム。
gradient descent, GD
勾配降下法

重みを少しずつ更新して勾配が最小にな る点を探索するアルゴリズム。確率的勾配降下法

超知能


Recurrent Neural Network, RNN
リカレント・ニューラル・ネットワーク

ニューラルネットワークを拡張して時系 列データを扱えるようにしたもの(再帰型ニューラルネットワークとも言う)
Convolutional neural network, CNN
畳み込みニューラルネットワーク

機 械学習において、畳み込みニューラルネットワーク(たたみこみニューラルネットワーク: Convolutional neural network, CNNまたはConvNet)は、順伝播型人工ディープニューラルネットワークの一種である。画像や動画認識に広く使われているモデル。
Feedforward neural network


A feedforward neural network is an artificial neural network wherein connections between the nodes do not form a cycle.[1] As such, it is different from its descendant: recurrent neural networks.
Boltzmann machine
ボルツマンマシン

ボルツマン・マシン (Boltzmann machine)は、1985年にジェフリー・ヒントンGeoffrey Everest Hinton)とテリー・セジュノスキー(Terry Sejnowski) によって開発された確率的(Stochastic neural network)回帰結合型ニューラルネットワークの一種
Bayesian inference
ベイズ推論

ベイジアン機械学習(ベイズ機械学習

教師あり学習
注意深く構造化されたトレーニングデー タを分類またはラベルづけして学習アルゴリズム。(フォード 2020:21)

強化学習

実践または試行錯誤による学習(フォー ド 2020:22)

教師なし学習

周囲の環境から入ってくる構造化されて いないデータから直接学習をおこなうこと(フォード 2020:23)
Artificial general intelligence 汎用人工知能
人間と同じ能力をもつ人工知能は、汎用人工知能(Artificial general intelligence)と呼ばれる。強いAIとも言われる。
Turing test
チューリング・テスト

ア ラン・チューリング(1950)が提案した、ある機械が「人間的」かどうかを判定するためのテストである。その定義は、完全にマスクされた判定者が、機械 と人間との確実な区別ができなかった場合、この機械はテストに合格、すなわち「人間的」であるということに合格したことがある。これが「知的であるかかど うか」とか「人工知能であるかどうか」とかのテストであるかどうかは、「知的」あるいは「(人工)知能」の定義、あるいは、人間が知的であるか、人間の能 力は知能であるか、といった定義に依存する。
Marvin Minsky
マービン・ミンスキー(1927-2016)

人工知能研究におけるフレーム理論(Frame )の提唱者。『2001年宇宙の旅』のアドバイザー。
ASILOMAR AI PRINCIPLES
アシロマの原則

Artificial intelligence has already provided beneficial tools that are used every day by people around the world. Its continued development, guided by the following principles, will offer amazing opportunities to help and empower people in the decades and centuries ahead. /世界中の人々が毎日使用する役に立つツールとして、すでに人工知能は利用されています。人工知能の開発が今後以下で示す原則に基づいて行われるならば、 それは数10年さらに数世紀にわたる将来において、人々に役立ち豊かな暮らしをもたらしうるでしょう」 - https://futureoflife.org/ai-principles-japanese/
Automation
オートメーション、自動化

︎ビルド・オートメーション (Build automation)▶︎ビジネス・プロセス・オートメーション (Business process automation) ▶︎︎ドキュメント・オートメーション(Document automation) ▶︎オフィス・オートメーション (Office automation) ▶︎︎OLEオートメーション (OLE automation) ▶︎ロボティック・プロセス・オートメーション (Robotic process automation) ▶︎︎サポート・オートメーション (Support automation) ▶︎テスト・オートメーション (Test automation) ▶︎︎ファクトリーオートメーション (Factory automation) ▶︎ホームオートメーション (Home automation) ▶︎




























































































































































Convolutional neural network
"In deep learning, a convolutional neural network (CNN, or ConvNet) is a class of deep neural networks, most commonly applied to analyzing visual imagery.[1] They are also known as shift invariant or space invariant artificial neural networks (SIANN), based on their shared-weights architecture and translation invariance characteristics.[2][3] They have applications in image and video recognition, recommender systems,[4] image classification, medical image analysis, natural language processing,[5] and financial time series.[6]" - convolutional neural network (CNN, or ConvNet)
Deep learning
Deep learning (also known as deep structured learning) is part of a broader family of machine learning methods based on artificial neural networks with representation learning. Learning can be supervised, semi-supervised or unsupervised.[1][2][3]- https://en.wikipedia.org/wiki/Deep_learning

Recurrent neural network
A recurrent neural network (RNN) is a class of artificial neural networks where connections between nodes form a directed graph along a temporal sequence. This allows it to exhibit temporal dynamic behavior. Derived from feedforward neural networks, RNNs can use their internal state (memory) to process variable length sequences of inputs.[1] This makes them applicable to tasks such as unsegmented, connected handwriting recognition[2] or speech recognition.[3][4] - Recurrent neural network.










解説(谷田部卓『これからのAIビジネ ス』MdN, 2018年による)
池田コメント
人工知能
「言語の理解や推論、問題解決など知的行 動を人間にかわってコンピュータに行わせる技術」
これでいいのか?
ディープラーニング

機械学習

教師あり学習
機械学習の手法のひとつ。あらかじめ正解 のデータ(教師データ)を必要とする。教師データからパターンや特徴を学習させる

教師なし学習


強化学習


自然言語処理


ニューラルネットワーク


生成モデル
教師データをもとにして、そのデータと似 たような新しいデータを創り出すモデルのこと

GAN, Generative Advisarial Network
生成器Gと識別器Dの間の2つのディープ ラーニングで構成されたモデルのこと


過学習
機械学習において教師あり学習をおこなっ た際に、未学習の問題に対して正しく答えをだせない状態

スパースモデリング:
少ない情報からデータの全体像を的確に抽 出する(どのようにして?)科学的モデリング。疎性モデリングともいう
Sparse approximation: "theory deals with sparse solutions for systems of linear equations. Techniques for finding these solutions and exploiting them in applications have found wide use in image processing, signal processing, machine learning, medical imaging, and more."
PoC: Proof of Concept
新しい概念や理論、原理などの実証を目的 とした実験

フィンテック


仮想通貨


ブロックチェーン
「ブロックチェーン(英語: Blockchain)とは、分散型台帳技術、または、分散型ネットワークである。ブロックチェインとも。ビットコインの中核技術(ナカモト・サトシ= Satoshi Nakamotoが 開発)を原型とするデータベースである。ブ ロックと呼ばれる順序付けられたレコードの連続的に増加するリストを持つ。各ブロックには、タイムスタンプと前のブロックへのリンクが含まれている。理論上、一度記録する と、ブロック内のデータを遡及的に変更することはできない。ブロックチェーンデータベースは、 Peer to Peerネットワークと分散型タイムスタンプサーバーの使用により、自律的に管理される」- Wiki,ブロックチェーン。

IoT


HRテック: Human Resource Technology


マーケティング・オートメーション


RPA: Robotic Process Autometion


SDGs


Society 5.0

Critique of Japanese govenment's developing concept of "Society 5.0";