かならずよんで ね!

イライザ、あるいはヴァーチャル・オードリー

ELIZA, and/or Doctor Strange Program

池田光穂

ELIZAは1964年から1966年にかけてMIT人工知能研究所でジョセフ・ワイゼンバウムによって作成された初期の自然言語処理コンピュータプログラムである。したがって、イライザはリアルな「身体」をもたないところに特色がある。

ELIZA is an early natural language processing computer program created from 1964 to 1966 at the MIT Artificial Intelligence Laboratory by Joseph Weizenbaum. Thus, ELIZA is unique in that she does not have a real "body."

ELIZA is an early natural language processing computer program created from 1964 to 1966[1] at the MIT Artificial Intelligence Laboratory by Joseph Weizenbaum.[2] Created to demonstrate the superficiality of communication between humans and machines, Eliza simulated conversation by using a "pattern matching" and substitution methodology that gave users an illusion of understanding on the part of the program, but had no built in framework for contextualizing events.[3][4][5] Directives on how to interact were provided by "scripts", written originally[6] in MAD-Slip, which allowed ELIZA to process user inputs and engage in discourse following the rules and directions of the script. The most famous script, DOCTOR, simulated a Rogerian psychotherapist (in particular, Carl Rogers, who was well known for simply parroting back at patients what they had just said),[7][8] and used rules, dictated in the script, to respond with non-directional questions to user inputs. As such, ELIZA was one of the first chatterbots and one of the first programs capable of attempting the Turing test.
ELIZA は1964年から1966年にかけてMIT人工知能研究所でジョセフ・ワイゼンバウムによって作成された初期の自然言語処理コンピュータプログラムである [2]。人間と機械の間のコミュニケーションの表面的なものを示すために作成されたエリザは、プログラムの側で理解しているかのようにユーザーに錯覚を与 える「パターンマッチ」と置換方法を使用して会話を模擬したが、出来事を文脈化するためのフレームワークを内蔵していなかった[3][4][5]。 [3][4][5] どのように対話するかという指令は、もともとMAD-Slipで書かれた「スクリプト」[6]によって与えられ、ELIZAはユーザーの入力を処理し、ス クリプトの規則と指示に従って会話に参加できるようになった。最も有名なスクリプトはDOCTORで、ロジャー派の心理療法士(特に、患者の言葉をそのま ま返すことで有名なカール・ロジャース)を模しており[7][8]、スクリプトに書かれたルールに従って、ユーザの入力に対して無指向性の質問で応答する ものであった。そのため、ELIZAは最初のおしゃべりボットの1つであり、チューリングテストを試みることができる最初のプログラムの1つであった。
ELIZA's creator, Weizenbaum, regarded the program as a method to show the superficiality of communication between man and machine, but was surprised by the number of individuals who attributed human-like feelings to the computer program, including Weizenbaum's secretary.[2] Many academics believed that the program would be able to positively influence the lives of many people, particularly those with psychological issues, and that it could aid doctors working on such patients' treatment.[2][9] While ELIZA was capable of engaging in discourse, ELIZA could not converse with true understanding.[10] However, many early users were convinced of ELIZA's intelligence and understanding, despite Weizenbaum's insistence to the contrary.[5] Surprisingly, the original ELIZA source-code has been missing since the 1960s as it was not common to publish articles that included source code at this time. However, more recently the MAD/SLIP source-code has now been discovered in the MIT archives and published on various platforms, such as archive.org.[11] The source-code is of high historical interest as it demonstrates not only the specificity of programming languages and techniques at that time, but also the beginning of software layering and abstraction as a means of achieving sophisticated software programming.
ELIZA の開発者であるWeizenbaumは、このプログラムを人間と機械の間のコミュニケーションの表面的な部分を示すための方法と考えたが、 Weizenbaumの秘書を含む多くの人々がこのコンピュータプログラムに人間のような感情を持つことに驚いた[2]。多くの学者は、このプログラムが 多くの人々の生活、特に心理的問題を持つ人々の生活にプラスの影響を与え、その患者の治療に取り組む医師の助けになると信じた[2][9]。 [ELIZAは談話をすることは可能であったが、真の意味で理解して会話することはできなかった[10]。 しかし、初期のユーザーの多くは、Weizenbaumの主張とは逆に、ELIZAの知性と理解力を確信していた[5] 驚いたことに、この時代にはソースコードを含む論文を発表することが普通ではなかったので、オリジナルのELIZAのソースコードは1960年代以降行方 不明になっていた。しかし、最近になってMITのアーカイブからMAD/SLIPのソースコードが発見され、archive.orgなど様々なプラット フォームで公開されている[11]。当時のプログラミング言語や技術の特異性を示すだけでなく、高度なソフトウェアプログラミングを実現する手段としてソ フトウェアの階層化や抽象化が始まっていたこともあり、歴史的に高い関心を持たれている。
Joseph Weizenbaum's ELIZA, running the DOCTOR script, was created to provide a parody of "the responses of a non-directional psychotherapist in an initial psychiatric interview"[12] and to "demonstrate that the communication between man and machine was superficial".[13] While ELIZA is best known for acting in the manner of a psychotherapist, the speech patterns are due to the data and instructions supplied by the DOCTOR script.[14] ELIZA itself examined the text for keywords, applied values to said keywords, and transformed the input into an output; the script that ELIZA ran determined the keywords, set the values of keywords, and set the rules of transformation for the output.[15] Weizenbaum chose to make the DOCTOR script in the context of psychotherapy to "sidestep the problem of giving the program a data base of real-world knowledge",[2] as in a Rogerian therapeutic situation, the program had only to reflect back the patient's statements.[2] The algorithms of DOCTOR allowed for a deceptively intelligent response, which deceived many individuals when first using the program.[16]
DOCTOR スクリプトを実行するJoseph WeizenbaumのELIZAは、「精神科の初期面接における無指向性心理療法士の応答」[12]のパロディと「人間と機械の間のコミュニケーション が表面的であることを示す」ために作られた。 ELIZAは心理療法士のように振る舞うことが有名だが、その発話パターンはDOCTORスクリプトから供給されるデータと指示に起因している[13]. ELIZA自身がテキストからキーワードを抽出し、そのキーワードに値を与え、入力を出力に変換しているが、ELIZAが実行するスクリプトがキーワード を決定し、キーワードの値を設定し、出力の変換規則を設定している[14]。 [ワイゼンバウムはDOCTORスクリプトを心理療法の文脈で作ることを選択し、「プログラムに実世界の知識のデータ基盤を与えるという問題を回避」した [2]。DOCTORのアルゴリズムは欺瞞的に知的な反応を可能にし、プログラムを初めて使うときに多くの人を欺いた[2]。
Weizenbaum named his program ELIZA after Eliza Doolittle, a working-class character in George Bernard Shaw's Pygmalion. According to Weizenbaum, ELIZA's ability to be "incrementally improved" by various users made it similar to Eliza Doolittle,[15] since Eliza Doolittle was taught to speak with an upper-class accent in Shaw's play.[17] However, unlike in Shaw's play, ELIZA is incapable of learning new patterns of speech or new words through interaction alone. Edits must be made directly to ELIZA's active script in order to change the manner by which the program operates.
ワ イゼンバウムは、ジョージ・バーナード・ショーの『ピグマリオン』に登場する労働者階級のキャラクター、イライザ・ドリトルにちなんで、自分のプログラム をELIZAと命名した。ワイゼンバウムによれば、ELIZAは様々なユーザーによって「漸進的に改善される」能力を持っており、イライザ・ドリトルに似 ている[15]。ただし、ショーの劇中とは異なり、ELIZAは対話だけでは新しい発話パターンや新しい単語を学習できない。ELIZAが動作する方法を 変更するためには、ELIZAのアクティブスクリプトに直接編集を加えなければならない。
Weizenbaum first implemented ELIZA in his own SLIP list-processing language, where, depending upon the initial entries by the user, the illusion of human intelligence could appear, or be dispelled through several interchanges. Some of ELIZA's responses were so convincing that Weizenbaum and several others have anecdotes of users becoming emotionally attached to the program, occasionally forgetting that they were conversing with a computer.[2] Weizenbaum's own secretary reportedly asked Weizenbaum to leave the room so that she and ELIZA could have a real conversation. Weizenbaum was surprised by this, later writing: "I had not realized ... that extremely short exposures to a relatively simple computer program could induce powerful delusional thinking in quite normal people."[18]
Weizenbaum はELIZAを最初に自身のリスト処理言語SLIPで実装し、ユーザーの最初の入力によって、人間の知性のような錯覚が現れたり、何回かやり取りをするう ちに払拭されたりした。ELIZAの応答は非常に説得力があり、ユーザーがプログラムに感情移入し、コンピュータと会話していることを忘れることもあった という逸話がワイゼンバウムや他の何人かにある[2]。 ワイゼンバウム自身の秘書が、ELIZAと実際に会話するためにワイゼンバウムに部屋を出るように頼んだと伝えられている。ヴァイツェンバウムはこれに驚 き、後にこう書いている。「比較的単純なコンピュータ・プログラムに極めて短時間触れただけで、ごく普通の人に強力な妄想を誘発することができると は......思いもよらなかった」[18]と書いている。
In 1966, interactive computing (via a teletype) was new. It was 15 years before the personal computer became familiar to the general public, and three decades before most people encountered attempts at natural language processing in Internet services like Ask.com or PC help systems such as Microsoft Office Clippit. Although those programs included years of research and work, ELIZA remains a milestone simply because it was the first time a programmer had attempted such a human-machine interaction with the goal of creating the illusion (however brief) of human–human interaction.[citation needed]

At the ICCC 1972 ELIZA was brought together with another early artificial-intelligence program named PARRY for a computer-only conversation. While ELIZA was built to speak as a doctor, PARRY was intended to simulate a patient with schizophrenia.[19]
1966 年当時、(テレタイプを使った)対話型コンピューティングは新しいものだった。パソコンが一般に普及する15年前、「Ask.com」などのインターネッ トサービスや「Microsoft Office Clippit」などのパソコン用ヘルプシステムで自然言語処理の試みに出会う30年前である。これらのプログラムには長年の研究と作業が含まれていた が、ELIZAは、プログラマーが人間と人間の対話のような錯覚を起こすことを目標に、人間と機械の対話を初めて試みたというだけの理由で、画期的なもの として残っている[citation needed]。

1972年のICCCでは、ELIZAはPARRYという別の初期の人工知能プログラムと一緒に、コンピュータだけの会話のために持ち込まれた。 ELIZAが医者として話すように作られたのに対して、PARRYは統合失調症の患者をシミュレートすることを意図していた[19]。
Weizenbaum originally wrote ELIZA in MAD-Slip for CTSS on an IBM 7094, as a program to make natural-language conversation possible with a computer.[20] To accomplish this, Weizenbaum identified five "fundamental technical problems" for ELIZA to overcome: the identification of critical words, the discovery of a minimal context, the choice of appropriate transformations, the generation of responses appropriate to the transformation or in the absence of critical words and the provision of an ending capacity[further explanation needed] for ELIZA scripts.[15] Weizenbaum solved these problems and made ELIZA such that it had no built-in contextual framework or universe of discourse.[14] However, this required ELIZA to have a script of instructions on how to respond to inputs from users.[5]

ELIZA starts its process of responding to an input by a user by first examining the text input for a "keyword".[4] A "keyword" is a word designated as important by the acting ELIZA script, which assigns to each keyword a precedence number, or a RANK, designed by the programmer.[10] If such words are found, they are put into a "keystack", with the keyword of the highest RANK at the top. The input sentence is then manipulated and transformed as the rule associated with the keyword of the highest RANK directs.[15] For example, when the DOCTOR script encounters words such as "alike" or "same", it would output a message pertaining to similarity, in this case "In what way?",[3] as these words had high precedence number. This also demonstrates how certain words, as dictated by the script, can be manipulated regardless of contextual considerations, such as switching first-person pronouns and second-person pronouns and vice versa, as these too had high precedence numbers. Such words with high precedence numbers are deemed superior to conversational patterns and are treated independently of contextual patterns.
そのためにWeizenbaumはELIZAが克服すべき5つの「基本 的な技術的問題」として、重要語の識別、最小限の文脈の発見、適切な変換の選択、変換に適した応答の生成、重要語がない場合の応答、ELIZAスクリプト の終了能力(さらなる説明が必要)の提供を挙げた[20][21]。 [15] Weizenbaumはこれらの問題を解決し、ELIZAに文脈の枠組みや談話の世界を組み込まないようにした[14]が、そのためにELIZAはユー ザーからの入力にどう応答するかという指示のスクリプトを持つ必要があった[5]。

キーワードとは、ELIZAのスクリプトが重要だと判断した単語のことで、プログラマーが設計した優先順位(RANK)を各キーワードに割り当てる [10]。例えば、DOCTORスクリプトは "sukely "や "same "といった言葉に出会うと、優先順位が高いので、"In what way?"[3] という類似性に関連するメッセージを出力する。また、一人称代名詞と二人称代名詞を入れ替えるなど、スクリプトの指示により、文脈に関係なく操作できる単 語もあり、これらも優先順位が高いことが示されている。このような優先順位の高い単語は、会話パターンより優れていると判断され、文脈のパターンとは無関 係に扱われる。
Following the first examination, the next step of the process is to apply an appropriate transformation rule, which includes two parts: the "decomposition rule" and the "reassembly rule".[15] First, the input is reviewed for syntactical patterns in order to establish the minimal context necessary to respond. Using the keywords and other nearby words from the input, different disassembly rules are tested until an appropriate pattern is found. Using the script's rules, the sentence is then "dismantled" and arranged into sections of the component parts as the "decomposition rule for the highest-ranking keyword" dictates. The example that Weizenbaum gives is the input "You are very helpful", which is transformed to "I are very helpful". This is then broken into (1) empty (2) "I" (3) "are" (4) "very helpful". The decomposition rule has broken the phrase into four small segments that contain both the keywords and the information in the sentence.[15]

The decomposition rule then designates a particular reassembly rule, or set of reassembly rules, to follow when reconstructing the sentence.[4] The reassembly rule takes the fragments of the input that the decomposition rule had created, rearranges them, and adds in programmed words to create a response. Using Weizenbaum's example previously stated, such a reassembly rule would take the fragments and apply them to the phrase "What makes you think I am (4)", which would result in "What makes you think I am very helpful?". This example is rather simple, since depending upon the disassembly rule, the output could be significantly more complex and use more of the input from the user. However, from this reassembly, ELIZA then sends the constructed sentence to the user in the form of text on the screen.[15]
最初の検査に続いて、プロセスの次のステップは適切な変換ルールを適用 することであり、これには「分解ルール」と「再組立ルール」の2つの部分が含まれる[15]。まず、応答に必要な最小限の文脈を確立するために、入力は構 文的パターンを見直される。入力からキーワードとその他の近傍の単語を使用して、適切なパターンが見つかるまで、さまざまな分解ルールがテストされる。ス クリプトのルールを使って、文は「解体」され、「最高位のキーワードの分解ルール」が指示するように構成要素のセクションに配置される。ワイゼンバウムが 挙げた例は、「あなたはとても親切です」という入力が、「私はとても親切です」に変換されるものである。これは、(1) 空 (2) 「私」 (3) 「ある」 (4) 「とても役に立つ」 に分解される。分解ルールによって、フレーズは文中のキーワードと情報の両方を含む4つの小さなセグメントに分解されました[15]。

分解規則は次に、文を再構築する際に従うべき特定の再組み立て規則、または再組み立て規則のセットを指定する[4]。再組み立て規則は、分解規則が作成し た入力の断片を受け取り、それらを再配置し、応答が作成されるようにプログラムされた単語を追加する。前出のワイゼンバウムの例で言えば、このような再組 立規則が断片を取り出し、「What makes you think I am (4)」というフレーズに適用すると、「What makes you think I am very helpful?」になる。分解ルールによっては、出力はかなり複雑になり、ユーザーからの入力をより多く使うことができるので、この例はかなり単純であ る。しかし、ELIZAはこの再集合から、構築された文章を画面上のテキストという形でユーザーに送る[15]。
These steps represent the bulk of the procedures that ELIZA follows in order to create a response from a typical input, though there are several specialized situations that ELIZA/DOCTOR can respond to. One Weizenbaum specifically wrote about was when there is no keyword. One solution was to have ELIZA respond with a remark that lacked content, such as "I see" or "Please go on".[15] The second method was to use a "MEMORY" structure, which recorded prior recent inputs, and would use these inputs to create a response referencing a part of the earlier conversation when encountered with no keywords.[16] This was possible due to Slip's ability to tag words for other usage, which simultaneously allowed ELIZA to examine, store and repurpose words for usage in outputs.[15]

While these functions were all framed in ELIZA's programming, the exact manner by which the program dismantled, examined, and reassembled inputs is determined by the operating script. The script is not static and can be edited, or a new one created, as is necessary for the operation in the context needed. This would allow the program to be applied in multiple situations, including the well-known DOCTOR script, which simulates a Rogerian psychotherapist.[11]
これらのステップは、ELIZAが一般的な入力から応答を作成するため に従う手順の大部分を代表するものであるが、ELIZA/DOCTORが応答できる特殊な状況もいくつか存在する。Weizenbaumが特に書いている のは、キーワードがない場合である。これは、Slipが他の用途のために単語にタグを付けることができるためで、同時にELIZAが単語を調べ、保存し、 出力に再利用することができる[15]。

これらの機能はすべてELIZAのプログラムの中に組み込まれているが、プログラムが入力を解体し、検査し、再組み立てする正確な方法は、動作スクリプト によって決定される。このスクリプトは固定されているわけではなく、必要な場面で必要なように編集したり、新たに作成したりすることができます。これによ り、ロジャー派の心理療法士を模したよく知られたDOCTORスクリプトなど、複数の場面でプログラムを適用することができる[11]。
A Lisp version of ELIZA, based on Weizenbaum's CACM paper, was written shortly after that paper's publication, by Bernie Cosell.[21][22] A BASIC version appeared in Creative Computing in 1977 (although it was written in 1973 by Jeff Shrager).[23] This version, which was ported to many of the earliest personal computers, appears to have been subsequently translated into many other versions in many other languages. Shrager claims not to have seen either Weizenbaum's or Cosell's versions.

In 2021 Jeff Shrager searched MIT's Weizenbaum archives, along with MIT archivist Myles Crowley, and found files labeled Computer Conversations. These included the complete source code listing of ELIZA in MAD-SLIP, with the DOCTOR script attached. The Weizenbaum estate has given permission to open-source this code under a Creative Commons CC0 public domain license. The code and other information can be found on the ELIZAGEN site.[22]

Another version of Eliza popular among software engineers is the version that comes with the default release of GNU Emacs, and which can be accessed by typing M-x doctor from most modern Emacs implementations.
ワイゼンバウムのCACM論文に基づくELIZAのLisp版は、その 論文発表の直後にBernie Cosellによって書かれた[21][22] BASIC版は1977年にCreative Computingに掲載された(ただしこれはJeff Shragerによって1973年に書かれた)[23] この版は初期のパソコンに多く移植され、その後多くの他の言語のバージョンに翻訳されていると思われる。シュレーガーはワイゼンバウムの版もコーセルの版 も見ていないと主張している。

2021年、ジェフ・シュレーガーはMITのアーカイブズ担当のマイルス・クロウリーとともにMITのワイゼンバウム・アーカイブズを探し、 「Computer Conversations」と書かれたファイルを発見した。これらには、MAD-SLIPのELIZAの完全なソースコードリストと、DOCTORのス クリプトが添付されていた。Weizenbaumの遺産は、このコードをCreative Commons CC0パブリックドメインライセンスの下でオープンソース化することを許可している。コードとその他の情報はELIZAGENのサイトで見ることができる [22]。

ソフトウェアエンジニアの間で人気のあるElizaの別のバージョンは、GNU Emacsのデフォルトリリースに付属しているバージョンで、ほとんどの最新のEmacs実装からM-x doctorとタイプすることでアクセスできる。
In popular culture

In 1969 George Lucas and Walter Murch incorporated an Eliza-like dialogue interface in their screenplay for the feature film THX-1138. Inhabitants of the underground future world of THX, when stressed, would retreat to "confession booths" and initiate a one-sided Eliza-formula conversation with a Jesus-faced computer who claimed to be "OMM".

ELIZA influenced a number of early computer games by demonstrating additional kinds of interface designs. Don Daglow wrote an enhanced version of the program called Ecala on a DEC PDP-10 minicomputer at Pomona College in 1973 before writing the computer role-playing game Dungeon (1975).

ELIZA is given credit as additional vocals on track 10 of the eponymous Information Society album.

In the 2008 anime RD Sennou Chousashitsu, also known as Real Drive, a character named Eliza Weizenbaum appears, an obvious tribute to ELIZA and Joseph Weizenbaum. Her behavior in the story often mimics the responses of the ELIZA program.

The 2011 video game Deus Ex: Human Revolution and the 2016 sequel Deus Ex: Mankind Divided features an artificial-intelligence Picus TV Network newsreader named Eliza Cassan.[24]

In Adam Curtis's 2016 documentary, HyperNormalisation, ELIZA was referenced in relationship to post-truth.[25]

In the twelfth episode of the American sitcom Young Sheldon, aired in January 2018, starred the protagonist "conversing" with ELIZA, hoping to resolve a domestic issue.[26]

On August 12, 2019, independent game developer Zachtronics published a visual novel called Eliza, about an AI-based counseling service inspired by ELIZA.[27][28]


大衆文化において

1969年、ジョージ・ルーカスとウォルター・マーチは、長編映画『THX-1138』の脚本に、イライザのような対話インターフェースを組み込んだ。 THXの地下未来世界の住人は、ストレスを感じると「告白ブース」に引きこもり、「OMM」と名乗るイエス顔のコンピュータとEliza式の一方的な会話 を始めるのであった。

ELIZAは、初期のコンピューターゲームに影響を与え、新たな種類のインターフェースデザインを実証した。ドン・ダグローは1973年にポモナカレッジ のDEC PDP-10ミニコンピュータ上でEcalaというプログラムの拡張版を書き、その後コンピュータロールプレイングゲームDungeon(1975年)を 書いた。

ELIZAは、同名のアルバム『Information Society』のトラック10で、追加ボーカルとしてクレジットされている。

2008年のアニメ『RD 潜脳調査室』(通称リアルドライブ)では、ELIZAとJoseph Weizenbaumへの明らかなオマージュとして、Eliza Weizenbaumという名前のキャラクターが登場する。物語の中での彼女の行動は、しばしばELIZAプログラムの反応を模倣している。

2011年のビデオゲーム『デウスエクス:ヒューマン・レボリューション』と2016年の続編『デウスエクス:マンカインド・ディバイデッド』には、イライザ・カッサンという人工知能のパイクスTVネットワークのニュースリーダが登場している[24]。

アダム・カーティスの2016年のドキュメンタリー『HyperNormalisation』では、ELIZAがポストトゥルースとの関係で言及された[25]。

2018年1月に放送されたアメリカのシットコム『Young Sheldon』の第12話では、主人公が家庭内の問題を解決することを望んでELIZAと「会話」している様子が描かれた[26]。

2019年8月12日、独立系ゲーム開発会社ザハトロニクスは、ELIZAに触発されたAIベースのカウンセリングサービスについてのビジュアルノベル『Eliza』を発表した[27][28]。
Response and legacy

Lay responses to ELIZA were disturbing to Weizenbaum and motivated him to write his book Computer Power and Human Reason: From Judgment to Calculation, in which he explains the limits of computers, as he wants to make clear his opinion that the anthropomorphic views of computers are just a reduction of the human being and any life form for that matter. In the independent documentary film Plug & Pray (2010) Weizenbaum said that only people who misunderstood ELIZA called it a sensation.[29]

The Israeli poet David Avidan, who was fascinated with future technologies and their relation to art, desired to explore the use of computers for writing literature. He conducted several conversations with an APL implementation of ELIZA and published them – in English, and in his own translation to Hebrew – under the title My Electronic Psychiatrist – Eight Authentic Talks with a Computer. In the foreword he presented it as a form of constrained writing.[30]

There are many programs based on ELIZA in different programming languages. In 1980 a company called "Don't Ask Software" created a version called "Abuse" for the Apple II, Atari, and Commodore 64 computers, which verbally abused the user based on the user's input.[31] For MS-DOS computers, some Sound Blaster cards came bundled with Dr. Sbaitso, which functions like the DOCTOR script. Other versions adapted ELIZA around a religious theme, such as ones featuring Jesus (both serious and comedic), and another Apple II variant called I Am Buddha. The 1980 game The Prisoner incorporated ELIZA-style interaction within its gameplay. In 1988 the British artist and friend of Weizenbaum Brian Reffin Smith created two art-oriented ELIZA-style programs written in BASIC, one called "Critic" and the other "Artist", running on two separate Amiga 1000 computers and showed them at the exhibition "Salamandre" in the Musée du Berry, Bourges, France. The visitor was supposed to help them converse by typing in to "Artist" what "Critic" said, and vice versa. The secret was that the two programs were identical. GNU Emacs formerly had a psychoanalyze-pinhead command that simulates a session between ELIZA and Zippy the Pinhead.[32] The Zippyisms were removed due to copyright issues, but the DOCTOR program remains.

ELIZA has been referenced in popular culture and continues to be a source of inspiration for programmers and developers focused on artificial intelligence. It was also featured in a 2012 exhibit at Harvard University titled "Go Ask A.L.I.C.E.", as part of a celebration of mathematician Alan Turing's 100th birthday. The exhibit explores Turing's lifelong fascination with the interaction between humans and computers, pointing to ELIZA as one of the earliest realizations of Turing's ideas.[1]
反響と遺産

ELIZA』に対するレイの反応はWeizenbaumにとって不愉快なものであり、『Computer Power and Human Reason』を執筆する動機となった。この本では、コンピュータを擬人化することは、人間やあらゆる生命体の縮小に過ぎないという彼の意見を明らかにし たいとして、コンピュータの限界を説明しています。独立系ドキュメンタリー映画『Plug & Pray』(2010年)の中でワイゼンバウムは、『ELIZA』を誤解している人たちだけがセンセーションと呼んだと述べている[29]。

イスラエルの詩人デヴィッド・アヴィダンは未来のテクノロジーとその芸術との関係に魅了され、文学を書くためにコンピュータを使うことを探求することを望 んだ。彼はELIZAのAPL実装といくつかの会話を行い、それを英語と彼自身のヘブライ語への翻訳で『My Electronic Psychiatrist - Eight Authentic Talks with a Computer』というタイトルで発表した。序文で彼はこれを制約された執筆の一形態として提示した[30]。

ELIZAをベースにした様々なプログラミング言語によるプログラムが多数存在する。1980年に「Don't Ask Software」という会社がApple II、Atari、Commodore 64コンピュータ用に「Abuse」というバージョンを作成し、ユーザーの入力に基づいて口頭でユーザーを罵倒した[31] MS-DOSコンピュータでは、いくつかのSound BlasterカードにDOCTORスクリプトのように機能するDr. Sbaitsoがバンドルされていた。他のバージョンでは、イエス(シリアスとコメディの両方)をフィーチャーしたものや、I Am Buddhaと呼ばれる別のApple IIの変種など、宗教的なテーマでELIZAを適応させた。1980年のゲーム「The Prisoner」は、ゲームプレイの中にELIZAスタイルのインタラクションを組み込んでいる。1988年、Weizenbaumの友人であるイギリ スのアーティストBrian Reffin Smithは、BASICで書かれた2つの芸術志向のELIZAスタイルのプログラム、1つは「Critic」、もう1つは「Artist」を作り、別々 のAmiga 1000コンピュータで実行し、フランスのブールジュにあるベリー美術館の「サラマンダー展」でそれらを展示しました。観客は、「批評家」が言ったことを 「芸術家」に入力し、逆に「芸術家」が言ったことを「芸術家」に入力することで、二人の会話を助けることになっていました。この2つのプログラムが同じも のであることが秘密だったのです。GNU Emacsには以前、ELIZAとZippy the Pinheadのセッションをシミュレートするpsychoanalyze-pinheadコマンドがあった[32] Zippyismsは著作権の問題で削除されたが、DOCTORプログラムは残されている。

ELIZAは大衆文化の中で言及され、人工知能に焦点を当てたプログラマーや開発者のインスピレーションの源であり続けている。また、2012年にハー バード大学で開催された、数学者アラン・チューリングの生誕100周年を記念した展示「Go Ask A.L.I.C.E.」でも取り上げられました。この展示では、チューリングが生涯をかけて取り組んできた人間とコンピュータの相互作用について探求し、 チューリングの考えを最も早く実現したものとしてELIZAを挙げている[1]。
The ELIZA effect, in computer science, is the tendency to unconsciously assume computer behaviors are analogous to human behaviors; that is, anthropomorphisation.
ELIZA効果とは、コンピュータの動作を人間の動作と同じだと無意識に思い込んでしまう傾向、つまり擬人化のことで、コンピュータサイエンスでは「ELIZA効果」と呼ばれている。
Overview

In its specific form, the ELIZA effect refers only to "the susceptibility of people to read far more understanding than is warranted into strings of symbols—especially words—strung together by computers".[1] A trivial example of the specific form of the Eliza effect, given by Douglas Hofstadter, involves an automated teller machine which displays the words "THANK YOU" at the end of a transaction. A naive observer might think that the machine is actually expressing gratitude; however, the machine is only printing a preprogrammed string of symbols.[1]

More generally, the ELIZA effect describes any situation[2][3] where, based solely on a system's output, users perceive computer systems as having "intrinsic qualities and abilities which the software controlling the (output) cannot possibly achieve"[4] or "assume that [outputs] reflect a greater causality than they actually do".[5] In both its specific and general forms, the ELIZA effect is notable for occurring even when users of the system are aware of the determinate nature of output produced by the system. From a psychological standpoint, the ELIZA effect is the result of a subtle cognitive dissonance between the user's awareness of programming limitations and their behavior towards the output of the program.[6] The discovery of the ELIZA effect was an important development in artificial intelligence, demonstrating the principle of using social engineering rather than explicit programming to pass a Turing test.[7]
概要

エライザ効果(ELIZA effect)とは、「コンピュータによってつなぎ合わされた記号(特に単語)の列に、正当化されるよりもはるかに多くの理解を読み取る人の感受性」のみ を指す。ダグラス・ホフスタッターによって与えられたエライザ効果の特定の形のつまらない例では、取引の終わりに「ありがとう」という言葉を表示する自動 預け払い機についてである。素朴な観察者は、機械が実際に感謝の意を表していると思うかもしれないが、機械はあらかじめプログラムされた記号の列を印刷し ているだけである[1]。

より一般的には、ELIZA効果は、システムの出力のみに基づいて、ユーザーがコンピュータシステムを「(出力を)制御するソフトウェアが実現できない本 質的な品質と能力」を持っていると認識する[4]、または「(出力が)実際よりも大きな因果関係を反映していると仮定する」状況[5]を説明する。 その特定および一般形式の両方で、ELIZA効果は、システムのユーザーがシステムの生成する出力の確定的性質を認識している場合でも起こることが特徴で ある。心理学的な観点からは、ELIZA効果は、プログラミングの限界に対するユーザーの意識と、プログラムの出力に対する行動との間の微妙な認知的不協 和の結果である。 ELIZA効果の発見は人工知能における重要な発展であり、チューリングテストをパスするために明示的プログラミングではなく、社会工学を用いるという原 理を示した[6]。
Origin

The effect is named for the 1966 chatbot ELIZA, developed by MIT computer scientist Joseph Weizenbaum. When executing Weizenbaum's DOCTOR script, ELIZA parodied a Rogerian psychotherapist, largely by rephrasing the "patient"'s replies as questions:

Human: Well, my boyfriend made me come here.
ELIZA: Your boyfriend made you come here?
Human: He says I'm depressed much of the time.
ELIZA: I am sorry to hear you are depressed.
Human: It's true. I'm unhappy.
ELIZA: Do you think coming here will help you not to be unhappy?[8]
Though designed strictly as a mechanism to support "natural language conversation" with a computer,[9] ELIZA's DOCTOR script was found to be surprisingly successful in eliciting emotional responses from users who, in the course of interacting with the program, began to ascribe understanding and motivation to the program's output.[10] As Weizenbaum later wrote, "I had not realized ... that extremely short exposures to a relatively simple computer program could induce powerful delusional thinking in quite normal people."[11] Indeed, ELIZA's code had not been designed to evoke this reaction in the first place. Upon observation, researchers discovered users unconsciously assuming ELIZA's questions implied interest and emotional involvement in the topics discussed, even when they consciously knew that ELIZA did not simulate emotion.[12]
由来

この効果は、MITのコンピュータ科学者ジョセフ・ワイゼンバウムが開発した1966年のチャットボット「ELIZA」にちなんで名づけられた。ワイゼン バウムのDOCTORスクリプトを実行すると、ELIZAはロジャー派の心理療法士をパロディ化し、主に「患者」の返事を質問として言い換えた。

人間:えーと、ボーイフレンドがここに来させたんです。
ELIZA: 彼氏があなたをここに来させたのですか?
人間:私がしょっちゅう落ち込んでいると言うんです。
ELIZA: 落ち込んでいらっしゃるとは、お察しします。
人間:本当なんです。私は不幸です。
ELIZA: ここに来れば、不幸にならないようになると思いますか[8]?

ELIZAのDOCTORスクリプトは、厳密にはコンピュータとの「自然言語会話」を支援する仕組みとして設計されたが[9]、プログラムとの対話の過程 で、プログラムの出力に理解と動機を与えるようになったユーザーから、情動反応を引き出すことに驚くほど成功していることが判明した[10]。 [10] 後にワイゼンバウムが書いたように、「比較的単純なコンピュータ・プログラムに極めて短時間触れただけで、ごく普通の人々に強力な妄想を引き起こすことが できるとは...私は知らなかった」 [11] 実際、ELIZAのコードはそもそもこの反応を引き起こすように設計されてはいなかったのである。研究者は、ELIZAが感情をシミュレートしていないこ とを意識的に知っていたとしても、ELIZAの質問が議論されたトピックへの興味と感情的な関与を暗示していると、ユーザーが無意識に仮定していることを 発見した[12]。
Significance to automated labor

ELIZA convinced some users into thinking that a machine was human. This shift in human-machine interaction marked progress in technologies emulating human behavior. Two groups of chatbots are distinguished by William Meisel as "general personal assistants" and "specialized digital assistants".[13] General digital assistants have been integrated into personal devices, with skills like sending messages, taking notes, checking calendars, and setting appointments. Specialized digital assistants “operate in very specific domains or help with very specific tasks".[13] Digital assistants that are programmed to aid productivity by assuming behaviors analogous to humans.

Joseph Weizenbaum considered that not every part of the human thought could be reduced to logical formalisms and that “there are some acts of thought that ought to be attempted only by humans”.[14] He also observed that we develop emotional involvement with machines if we interact with them as humans. When chatbots are anthropomorphized, they tend to portray gendered features as a way through which we establish relationships with the technology. "gender stereotypes are instrumentalised to manage our relationship with chatbots" when human behavior is programmed into machines.[15]

Feminized labor, or women's work, automated by anthropomorphic digital assistants reinforces an "assumption that women possess a natural affinity for service work and emotional labour".[16] In defining our proximity to digital assistants through their human attributes, chatbots become gendered entities.
自動労働への意義

ELIZAでは、機械が人間であるかのように錯覚させることができた。このような人間と機械の相互作用の変化は、人間の行動をエミュレートする技術の進歩 を示すものであった。チャットボットの2つのグループは、ウィリアム・マイゼルによって「一般的なパーソナルアシスタント」と「特化したデジタルアシスタ ント」として区別されている[13]。一般的なデジタルアシスタントは、メッセージを送る、メモを取る、カレンダーを確認する、予定を設定するなどのスキ ルを持ち、個人のデバイスに統合されている。特化型デジタルアシスタントは、「非常に特定の領域で動作し、非常に特定のタスクを支援する」[13] デジタルアシスタントは、人間に類似した行動を仮定することによって生産性を支援するようにプログラムされている。

ジョセフ・ワイゼンバウムは、人間の思考のすべての部分が論理的形式主義に還元できるわけではなく、「人間によってのみ試みられるべき思考行為がある」と 考えた[14]。 また、人間として機械と対話する場合、機械との感情移入が生じることを観察している。チャットボットが擬人化されるとき、彼らは私たちがテクノロジーとの 関係を確立する方法として、ジェンダーの特徴を描く傾向がある。人間の行動が機械にプログラムされるとき、「ジェンダー・ステレオタイプは、チャットボッ トとの関係を管理するために道具化される」[15]。

擬人化されたデジタルアシスタントによって自動化された女性化された労働、あるいは女性の仕事は、「女性がサービス業や感情的な労働に対して自然な親和性 を持っているという仮定」を強化する[16]。デジタルアシスタントに対する私たちの近さをその人間の属性によって定義すると、チャットボットはジェン ダーの存在になる。
https://en.wikipedia.org/wiki/ELIZA.
https://www.deepl.com/ja/translator
https://en.wikipedia.org/wiki/ELIZA_effect.
https://www.deepl.com/ja/translator

https://www.masswerk.at/elizabot/

+++

Links

リンク(授業関連)

リンク

文献

その他の情報

Copyleft, CC, Mitzub'ixi Quq Chi'j, 1997-2099