ChatGPTは新たな「ノート」か:山下編集長と考える対話型AIの行方【WORKSIGHT最新号『フィールドノート』より】
知の特権化からの解放と、失ってきた主体性を回復するための道具として。また組織における巨大なノートとしてのChatGPT。わたしたちは、いま期待と危惧で議論の絶えない「対話型AI」とどのように向き合えばよいのか。本誌編集長・山下正太郎による論考をプリント版最新号『WORKSIGHT 19号 フィールドノート 声をきく・書きとめる』より転載してお届けします。
Photo by Sepia Times/Universal Images Group via Getty Images
「GPT-4」の登場で2023年最大のゲームチェンジャーとなった「対話型AI」。その使用例や、AI論争ではお馴染みの雇用をめぐる危惧、「人間のクリエイティビティ」にまつわる議論が喧しいが、そもそもわたしたちは、それが紡ぎ出す「ことば」とどう向き合うことが可能なのか。ChatGPTは、わたしたちにいったい何を問い返しているのか。本誌編集長が整理してみた。
Text by Shotaro Yamashita(WORKSIGHT)
ChatGPTという見知らぬ他者と出会うことをめぐる混乱についての覚書
音声アシスタントにとどめを刺す
AIアシスタント「Siri」が登場したのがいまから12年前の2011年。以来、Siri、Alexa、Google Assistantのような音声タイプのAIアシスタントは、知られてはいても日常的に広く活用されているとは言い難い。2018年には米NBCの深夜コメディ番組Saturday Night Liveに呼び名を間違えても答えてくれる高齢者向けのスマートスピーカーが登場するなど、音声AIアシスタントはジョークのネタにされる有様である。あまりのポンコツぶりを長年続けてくれたお陰で、むしろAIへの恐怖心を取り去ることに貢献したとも言えよう。
音声アシスタントの体たらくを横目に2015年に設立されたのが、本稿の主役「ChatGPT」をつくった人工知能研究機関「OpenAI」だ。設立メンバーにはかのイーロン・マスクや、Y Combinatorのサム・アルトマン、ピーター・ティール、リード・ホフマンなどの名前が並ぶ。OpenAIは「人間よりも汎用的に賢いAIシステム=AGI(Artificial General Intelligence)で全人類に利益をもたらすこと」をミッションに掲げ、当初は非営利団体としてスタートしている(その後、「OpenAI LP」とそれを管理する非営利団体「OpenAI Inc.」に分割された)。2019年には音声アシスタント開発で後塵を拝していたMicrosoftが出資し始め、今後100億ドル規模の追加投資を行うことも発表している。ちなみにMicrosoftのCEO、サティア・ナデラは最近のインタビューで「音声アシスタントは岩のように間抜けだ」と(満を持して?)コメントした。
対話型言語モデル「ChatGPT」は大規模言語モデル(LLM:Large Language Model)と呼ばれる大量のテキストデータを使って事前に強化学習された自然言語処理のモデルであるが、これまでのものと違い、有害なテキストを吐き出さず、会話のような砕けたニュアンスも理解し回答することができるようになった。人間で言えば、分別がありよりウィットに富んだ大人になったということだろう。2021年6月までのデータをベースにしているため最新の話題にも疎いところも含めて妙に大人っぽい。
ChatGPTがさらに卓越した大人に成長するには大量のデータが必要だが、「GPT-3」の段階で月間アクティブユーザー数が1億人に到達するまでに2カ月しかかかっていないことを考えれば、バズるほどに扱えるデータ量が増えて自身が進化するという正のフィードバックループがうまく効いていることがわかる(ちなみに同じユーザー数に達するまでTikTokは約9カ月、Instagramは2年半かかっている)。
そして2023年3月に発表された「GPT-4」はさらなる驚きをもって迎えられた。インドの経済メディア「mint」にGPT-4が活躍するであろうユースケースがまとめられている。現在はテキストと画像のみが対象であるが、映像や音声などさらなるマルチモーダル対応は時間の問題であると言えよう。
多言語コミュニケーション:多言語で正確かつシームレスな翻訳を提供できる
医療診断:患者の症状を分析し正確な診断を行うことができ、医療従事者はより早くより効果的な治療を提供できるようになる
金融予測:財務データを分析し正確な予測を提供することで十分な情報に基づいた投資判断が可能になる
科学研究:複雑なデータセットを分析しパターンやつながりを特定することで研究活動を支援する
クリエイティブライティング:アイデアを生み出し筋書きやキャラクターを提案することで創造的な執筆活動を支援する
プロダクトデザイン:新しいアイデアを生み出し改善のための提案をすることで製品設計を支援する
法律分析:法律文書を分析し洞察や提言を提供することで法律研究を簡素化する
ソーシャルメディアマネジメント:コンテンツの提案やキャプションやハッシュタグを生成しソーシャルメディアのアカウント管理を支援する
パーソナルショッピング:ユーザーの好みや過去の購入品に基づいて商品を提案し、個人にカスタマイズされたショッピングを支援する
パーソナル・コーチング:フィットネス、栄養、生産性など、パーソナライズされたコーチングやアドバイスを提供する
資本主義と切り離す
破壊的なテクノロジーは常に社会にハレーションを起こす。まず指摘されるのはChatGPTのようなAIが人の雇用を奪うという問題である。OpenAIとペンシルバニア大学の調査によれば、AIが社会に浸透することで、高賃金の仕事に就いている人のほうが低賃金の労働者よりも高い失業リスクにさらされることになり、年収80,000ドルに近づくにつれてAIが仕事に与える影響は大きくなるとした。映画『メッセージ』の原作者などとして知られるSF作家のテッド・チャンは、AIと雇用問題をすぐに紐づける思考についてこう話す。
わたしは、AIに対する恐怖のほとんどは、資本主義に対する恐怖として理解するのが一番だと思います。そして、これは実はテクノロジーに対する恐怖の多くにも当てはまると思います。テクノロジーに対するわたしたちの恐怖や不安のほとんどは、資本主義がわたしたちに対してどのようにテクノロジーを利用するかという恐怖や不安として最もよく理解されるものです。そして、テクノロジーと資本主義はあまりにも密接に絡み合っているため、このふたつを区別することは難しいのです。
冷静に考えて、AIによって雇用や業務のコスト削減を行いたいのは、利潤の最大化を目指す資本主義による思考でありAIの本来的な機能とは違うものである。テッド・チャンは加えて、社会保障などのセーフティネットがある国ではこうした議論はあまり起こらないだろうとも指摘する。AIを心配するよりも、まずは社会システムそのもののありようを憂うべしということだ。
主体性を回復する
ChatGPTに対して投げかけられるもうひとつの問題が「幻覚(hallucination)」だ。OpenAIは、以前より改善したとはいえ、依然としてAIが勝手に誤った解答をでっち上げる現象「幻覚」にユーザーは注意を払う必要があるとしている。人間に例えればそれも成熟のありようだと思うのだが、彼らは実にナチュラルに嘘をつく。案の定、いい加減とも取れる知識に対する姿勢にアカデミアからは批判の声が方々から上がっている。ここでは言語学者ノーム・チョムスキーらのThe New York Timesへの寄稿を紹介しよう。
機械学習の本質は記述と予測であり、因果関係や物理法則を仮定するものではありません。もちろん、人間的な説明が必ずしも正しいとは限りませんし、人間には誤りがあります。しかし、これこそが「考える」ということなのです。「正しくあるためには、間違っている可能性もある」ということなのです。知性とは、創造的な推測だけでなく、創造的な批判からもなるものです。人間的な思考は、可能な説明と誤りの訂正に基づいており、その過程で合理的に考慮できる可能性が徐々に制限されていく。(シャーロック・ホームズがワトソン博士に言ったように)「不可能を排除したあとに残ったものは、どんなにありえないことでも真実に違いない」のです。
しかし、ChatGPTや同様のプログラムは、設計上「学習」(つまり記憶)できることが無制限であり、可能性と不可能性を区別することができません。例えば、人間には普遍的な文法が備わっており、人間が学習できる言語は、ある種の数学的な優雅さをもつ言語に限定されているのとは異なり、これらのプログラムは、人間が可能な言語と人間が不可能な言語を同じように学習することが可能です。人間が合理的に推測できる説明の種類は限られていますが、機械学習システムは「地球は平らだ」とも「地球は丸い」とも学習できます。機械学習システムは、時間の経過とともに変化する確率を取り引きしているに過ぎません。
チョムスキーらにとって知とは絶対的なもので、理性的な批判による洗練を通じて得られたその真正性にこそ価値があると彼らは考える。同様の指摘は、誰の知識かもわからないAIのアウトプットは科学研究の透明性を侵すものと、科学雑誌『Nature』でもなされている。これまでのアカデミアが大切にしてきた主体と客体を明確に分離し、純粋な要素を抽出して思考する「分析的アプローチ(Analytical Approach)」からすれば、出力の前提となる変数が多くプロセスもブラックボックスであるような代物は到底受け入れ難いことが想像できる。
たしかに政治や医療など誤った情報に基づいた意思決定がクリティカルな状況を引き起こすことについては留意せねばなるまい。2016年のWELQ事件で、AIでこそないが膨大なフェイク情報が医療の危機を招いたことは記憶に新しい。最近ではルーマニア政府肝煎りの公式AI「ION」が画像盗用を起こしたりもしている。
しかしながら、チョムスキーらが言うような一種の権威的な知、細分化された学術領域での狭い了見が、現実に起こる不規則で複雑な問題(Wicked Problem)に対していかに脆弱かということもまたコロナ禍中にいるわたしたちは身をもって知っている。そもそもテクノロジーは既存の権力構造を破壊し、より問題に近い立場のユーザー、生活者、ビジネスパーソン、社会的弱者といった人びとに力を与えてきた。つい30年前までインターネットが一般的でなく情報にアクセスできる者が限られていた時代をわたしたちはもはや思い出せないが、その時代に戻りたい人はそう多くはないだろう。
近年のテクノロジーの進展を牽引してきたシリコンバレーには、「カリフォルニア・イデオロギー」や「ガレージカルチャー」と呼ばれる、実験を愛しとかく実際に動くもの(理論はその後!)を希求する工学的でプラグマティックな空気が流れている。パイオニアビルディングという名前が冗談かと思うほど古ぼけた低層木造の歴史的建造物に居を構える「OpenAI」の社員だって、きっと心の内では「まぁやってみようよ」と思っていることだろう。
こうしたまずはつくりながら考えていく方法は「構成論的アプローチ(Constructive Approach)」と呼ばれている。ソフトウェア分野でのプロトタイピングや、環境分野での順応的ガバナンスなど、さまざまなジャンルで同じような複雑性への対処が試行されている。複雑系解析を専門とする北陸先端科学技術大学院大学の橋本敬教授は、構成論的アプローチの特徴についてこう記す。
「作ることにより理解する」という構成論的手法には、一見すると矛盾があるように思える。それは「何かを構成するためには設計図が必要であり、設計図を書くためにはその対象を分析し、よく理解しなくてはならない、よって、分析・記述が困難な対象に対しては構成的理解も不可能である」という指摘である。
しかし、実際はそうではない。構成するシステムを進化系とみなすことができるならば、複雑な現在の状態をそのまま構成するのではなく、その起源と考えられる状態と、変化のプロセス(例えば生物の場合は、突然変異と選択というダーウィン進化のプロセス)を実装することで、作られたシステムは自ら複雑化する可能性をもつ。この方法は、現在の状態に関してのみならず、そこにいたる過程についての知見も与えるものである。そして、現在の状況が実現し得る条件を知ることができるし、条件や初期状態を変えることで、あり得た現在、あり得る未来について知ることも可能である。
構成論的手法のさらなる利点は、従来の科学的手法が不得意とする主体性をもった対象へチャレンジできることである。もともと従来の科学的手法は、主体性をはぎ取った客観的存在としての対象を見いだすことで可能となる。一方、構成論的手法では、主体性をもった要素システム群(マルチエージェントと呼ばれる)とそれらの間の相互作用を構成し、その全体のシステムを客観的対象として考察の対象とする。すなわち、主体性を客観性の中に埋め込むのである。
これまでの科学に対する態度としてわたしたちが有してきた、知の特権化からの解放、失ってきた主体性の回復、これらこそChatGPTを試すべき理由であり、ここで初めて、ゼロ地点である自分と向き合いながら共進化する「ノートに書く行為」との共通点を見いだすことができるのである。
新しい「ノート」になる
どのようにChatGPTと付き合っていけばいいか、起業家のダン・シッパーはChatGPTのようなLLMを第二の脳としてノートの進化系と捉えることを提案している。
ノートは、事実、引用、アイデア、出来事などを記録し、最終的には、より良い意思決定、より面白い文章の作成、問題の解決策を見つけるために使用することができます。
この関係をうまく機能させるために、わたしたちは長い間、組織的なシステムを構築してきました。タグ、ノートブックの階層、双方向リンクなど、ルーブ・ゴールドバーグ・マシンを構築し、必要なときに必要なノートを取り出せるようにすることで、将来の自分のバージョンに、正しいノートを正しいタイミングで提供できるようにするのが最善の方法でした。少なくとも、自分が何を探しているのかがわかれば、検索で簡単に見つけることができるのです。
しかし、結局のところ、わたしたちが構築してきた整理術はもろいものです。わたしたちは常に新しいシステムを構築しては放棄し、古いメモを見返すことはほとんどありません。タグは作成された後、放棄されます。リンクがたどられることはほとんどありません。わたしたちは罪悪感をもっています。長年かけて収集したものには、使い方を工夫すれば、たくさんの価値が閉じ込められているのです。新しいノートツールにお金を払うのは、1月1日にジムの会員になるようなものです。断念することはわかっていても、お金を払うことで、いまあるものを最大限に生かせないという不安が和らぎます。
AIはこの方程式を変えます。古いノートの価値を引き出すより良い方法は、インテリジェンスを使って、適切なノートを、適切なタイミングで、適切なフォーマットで、最も効果的に使えるように表示することです。インテリジェンスを自由に使えるようになれば、整理する必要はありません。
ノートというものは多くの場合、閃光のような思考を書き留めるものであるが、せいぜい忘れずにその瞬間を紙に封じ込めることで精いっぱいであり、後でどのように利用できるのか判断することが難しい。ましてやページ数という物理的制約もあるなかで、過去から現在まで一貫して瞬時に引き出せるようなものでもない。たとえデジタル上のメモであっても、コピーアンドペーストなどで記述が容易な分、今度はデータが膨大になりすぎてしまう。その点、LLMを使うことで、膨大なデータを整理することなく自分の状況に応じて過去の情報を瞬時にかつ適切に引き出すことができるというわけだ。
一方でAIをノートのメタファーで捉えきれないのは、もはや個人だけのものではなく組織の共有知としての在り方も考えられるからだ。特に、旧来の上意下達の組織ではなく、現場の自律性を高めるためにAIの使用が期待されている。スペインの大手通信企業「Telefonica」のチーフAIデータストラテジストのリチャード・ベンジャミンズはAIを活用したデータドリブン組織の構成についてこう述べている。
ひとつは、データの民主化についてです。多くの組織では、データからの価値創造を担当する専門のデータチームや人工知能チームが存在します。このチームは、さまざまなビジネスユニットからの要望を受け、彼らの問題を解決し、データに基づくソリューションを提供するために活動を開始します。経験上、データから価値を創造する方法を学んだ組織は、誰もがそれをやりたがるものです。このため、この中央部門に大きな負担がかかり、最終的にはボトルネックとなって(中央のチームは無限に成長できない)、データジャーニーが遅くなってしまう。したがって、データから価値を生み出すことができる従業員の数を徐々に増やしていくことが重要です。だからといって、社員一人ひとりがデータサイエンティストになる必要はない。技術者でなくても使える機械学習や自然言語処理を提供するツールはいくつかあります。もちろん、それらのツールは最も複雑な問題を解決することはできませんが(そのためには常にデータサイエンティストが必要です)、それらのツールはビジネス問題の60%程度を解決することができます。これにより、データ専門チームは単純な問題から解放され、本当に難しい問題や興味深い問題の解決に集中できるようになり、彼らのモチベーションも維持され、それに伴うリテンション効果も期待できます。つまり、データの民主化によって、全社的な価値創造の規模を拡大すると同時に、データの専門家を確保することができるのです。
マネジメント、従業員、場合によっては顧客、パートナーまでもがデータベースを共有しながら、状況に応じて自分のためのソリューションを瞬時に引き出すことができる組織像が提案されている。無理矢理例えるなら、巨大なノートを使って高速で交換日記を回しているようなものだろうか。その際、わざわざ上司や親にノートに書いていいかと許可を取ったり、書き方を教えてもらったりするようなことはもちろん不要である。
でっち上げる
積極的なChatGPTの活用を謳うなかには、チョムスキーらが批判した「幻覚(hallucination)」こそ創造力の源泉であるという指摘もある。O’Reilly Mediaのヴァイス・プレジデントで編集者のマイク・ルーキデスはこう述べる。
もし、AIの「幻覚」を創造性の前兆と捉えたらどうでしょう。ChatGPTが幻覚を見るのは、存在しないものをつくり出しているのです。(と聞けば、丁寧に「存在しない」と認めてくれる可能性が高いです)。しかし、存在しないものこそ、芸術の本質なのです。デイヴィッド・カッパーフィールドは、チャールズ・ディケンズが想像する前から存在していたのでしょうか?その質問をするのはほとんど馬鹿げています(フィクションを「嘘」と見なすある種の宗教的伝統は存在しますが)。バッハの作品も、セロニアス・モンクの作品も、ダ・ヴィンチの作品も、彼らが想像する前には存在しなかったのです。
わたしたちは何かしらの創造行為につい尻込みするイップス的状況によく直面する。アメリカのノンフィクション作家エリザベス・ギルバートが創造性について書いた『Big Magic: Creative Living Beyond Fear』がその心理状況を解説している。
「自分には才能がないのではないか」と恐れている。拒絶されたり、批判されたり、嘲笑されたり、誤解されたり、最悪の場合、無視されたりするのではないかと恐れている。自分のクリエイティビティに市場がない、だから追求する意味がない、と思っている。他の誰かがもっと上手にやっているのではと不安になる。誰かにアイデアを盗まれるのが怖い。だから、永遠に暗闇のなかに隠しておくほうが安全なのだ。
AIはそんな逡巡はもちろんしないし体力だって無限、ものの数秒で何通りものでっち上げを含むアウトプットを出してくれる。ノートでの対話行為を、主体と客体を往復し新たな自分を見つける張り詰めた真剣勝負の場とすれば、ChatGPTとの対話は、テンポの良い会話から生まれる高揚感と同時にブラフをかまして相手の裏をかくポーカーのような知的ゲームの様相を呈している。締め切り間際にこんなゲームに悠長に付き合ってくれる友人はおそらくいないであろうから、嫌な顔ひとつ見せないChatGPTと仲良くしておいても損はなかろう。
「ChatGPT+人間」になる
ChatGPTを使って生きていく人類とはどのような存在になりうるのか。テクノロジーと人間の関係について研究する文化人類学者の久保明教の『機械カニバリズム』にはブルーノ・ラトゥールのアクターネットワーク理論を援用したこんな記述がある。
私たちは自律的なテクノロジーに操られているわけではない。だが、自律的な私たちがテクノロジーを操っているわけでもない。私たちはテクノロジーを制御などしていない。むしろ、私たちはテクノロジーへと生成している。ただし、ここでいう「生成(becoming)」とは、そのものと同一になることを意味するわけではない。市民が銃になるわけでもないし、若者がLINEになるわけでもない。市民は「市民+銃」になり、若者は「若者+LINE」になる。「テクノロジーへの生成」とは、私たちは技術と結びつくことで以前とは異なる存在へと変化するのであり、その変化をあらかじめ完全に理解することも制御することもできないし、現にしていない、ということである。
市民と銃を例にとると、人間が技術を道具のように考える「道具説」に立てば「市民は銃を理性的に扱う」となるし、道具に備わる性質が自律的に振る舞う「自律説」に立てば「市民が銃で人を殺しかねない」となる。しかし実際には、銃のもつ殺傷能力を目的に市民が銃を手にとっても、銃の感触に恐れおののいて撃てないというような行為の転換が起こってしまう。行為だけでなく、価値判断においても、哲学者ピーター =ポール・フェルベークの『技術の道徳化』では、技術はそれそのものは意思決定を行わないため倫理的な責任を問うことができないが、使用するにせよ無視するにせよ、その存在によって人間に倫理的判断の選択肢を生じさせるという指摘もされており、わたしたちは技術を切り離して思考することが難しいことがわかる。続けて久保はこう記す。
テクノロジーをめぐる道具説と自律説の対立を支えているのは、「社会と自然」、「人間と非人間」、「主体と客体」を明確に区別し、両者を一方による他方の制御という非対称的なしかたで関係づける近代社会の根幹をなす発想である。前者が後者を制御するとき、自然を解明し改変する科学技術は人間社会が目的を達成するための道具となり、後者が前者を制御するとき、科学技術は人間社会から自律して社会に一方的な影響を与えるものとなる。だが、ラトゥールによれば、これらの二項対立は諸領域を切り離しそれぞれに「純化」する近代的発想の産物に他ならない。人間から非人間を切り離すことでテクノロジーはそれ自体に固有の機能や利便性をもつものとされ、非人間から人間を切り離すことでテクノロジーを用いる人間はそれ自体に固有の意志をもつことになる。だが、表向きの純化を維持すると同時に、近代社会は両者を暗黙裡に混ぜあわせることで、たがいがたがいを「翻訳」しながら人間にも非人間にも還元できない新たな行為を生みだす運動を促進してもいる。ちょうど、人々がLINEと結びつくことで「既読スルー」という新たな行為が生まれたように。
シリコンバレーが罪深いのは、つくり手が意図しようがしまいが(多くは楽観的につくられる)この世に技術が生まれてしまえば、ただちに人間はネットワークに絡めとられ、逃れられなくなるという状況をつくり出したことである(アメリカという国は本当にどこまでもお節介だ)。巻き込まれたわたしたちにChatGPTという技術に「食うか/食われるか」を議論する余地はそもそも残されておらず、両者とそれを取り巻く相互作用によって、「ChatGPT+人間」という新たな行為者として振る舞うしかないのだ。早晩、知的創作活動にAIを利用していないことを示す身振りやしぐさが自然発生すると思うが、それは人間社会にそもそも備わった性質からだけでは説明できないし、ChatGPTの技術的特性のみにも依存していない。こうした行為が生まれ続け、多くのアクターとの連関のなかで意味が書き換えられ続けるのだろう。
思考を飛躍させる
最後にわたしたちのノートを巡る旅を導いてくれた東宏治『思考の手帖:ぼくの方法の始まりとしての手帖』からことばを引こう。
いま一瞬見えたと思う事柄(「光」)を書きしるすことしか真実でなく、そこから演繹し推理し組み立て、新たに命題なり事柄なりを申しのべることは、真実であると証明できないし、証明できても確信できないからだ。一瞬見えたと思うときの熱気のようなものが、その瞬時の光景だけが真実(事実)であるという確信を支えているのだろう。
それはぼくが演繹し推理しないことではなくて、ぼくの体のなかのぼくの知らないところで、ぼくが演繹や推理を行っているのでなければ不安であるということ。ぼくの思考は、ぼくの眠っているあいだにぼくの肉体と協力して、仕事をやってくれるのでなければならないと思うから。
わたしたちが道具を使って辿り着かんとする真実は、どうやら自分では預かり知らないところからやってくる。いや、むしろそうでなければ意味がない。長年かけてノートに書きこんだことばそのものにも、ほんの数秒でChatGPTが返してくれることばそのものにも本質的な価値などなく、それらは灯台、クライミングカム、アリアドネの糸、まぁ何でも良い、起点となって飛躍する思考のためのガイドでしかない。つまるところ道具が饒舌になればなるほど、自分がどんなことばをそこに置くか、そのことからしか始まらないことに気づかされるのである。
山下正太郎|Shotaro Yamashita 本誌編集長/コクヨ ヨコク研究所・ワークスタイル研究所 所長。2011 年『WORKSIGHT』創刊。同年、未来の働き方を考える研究機関「WORKSIGHT LAB.」(現ワークスタイル研究所)を立ち上げる。2019年より、京都工芸繊維大学 特任准教授を兼任。2022年、未来社会のオルタナティブを研究/実践するリサーチ&デザインラボ「ヨコク研究所」を設立。
『WORKSIGHT[ワークサイト]19号 フィールドノート 声をきく・書きとめる Field Note』は、全国書店および各ECサイトで販売中です。書籍の詳細は4月27日(木)配信の特別ニュースレターをご覧ください。
【目次】
◉巻頭言・ノートという呪術
文=山下正太郎(WORKSIGHT編集長)
◉スケーターたちのフィールドノート
プロジェクト「川」の試み
◉スケートボードの「声」をめぐる小史
文化史家イアン・ボーデンのまなざし
◉ノートなんて書けない
「聴く・記録する・伝える」を人類学者と考えた
松村圭一郎・足羽與志子・安渓遊地・大橋香奈
◉人の話を「きく」ためのプレイブック
哲学者・永井玲衣とともに
◉生かされたレシピ
「津軽あかつきの会」の営み
◉野外録音と狐の精霊
デイヴィッド・トゥープが語るフィールドレコーディング
◉それぞれのフィールドノート
未知なる声を聴く傑作ブックリスト60
◉ChatGPTという見知らぬ他者と出会うことをめぐる混乱についての覚書
文=山下正太郎
【書籍詳細】
書名:『WORKSIGHT[ワークサイト]19号 フィールドノート 声をきく・書きとめる Field Note』
編集:WORKSIGHT編集部
ISBN:978-4-7615-0925-5
アートディレクション:藤田裕美
発行日:2023年4月27日(木)
発行:コクヨ
発売:学芸出版社
判型:A5変型/128頁
定価:1800円+税
次週5月9日は、山口情報芸術センター[YCAM] が2021年度より行ってきた「食」の歴史性やローカリティを考えさせる研究開発プロジェクトより、「The Flavour of Power──紛争、政治、倫理、歴史を通して食をどう捉えるか?」展、野草採取ワークショップの様子をお届けします。インドネシアのアートコレクティブ「バクダパン・フード・スタディ・グループ」を迎え、食と倫理をキーワードに見えてくるものとは──お楽しみに。
【WORKSIGHTのイベント情報】
刊行記念、特別インスタライブを開催します!
『WORKSIGHT 19号 フィールドノート 声をきく・書きとめる Field Note』の刊行を記念して、5/10(水)の夕方から夜にかけての3時間(!)特別インスタライブを開催いたします。特集にご協力いただいたゲストをお迎えして、ラジオの特番のようなオンライン生配信を行います。
今回は配信に加えて特別に会場観覧席をご用意。配信のベースキャンプとなる下北沢のコクヨ・サテライト型多目的スペース「n.5(エヌテンゴ)」でトークをお聞きいただけます。さらに、出演時間外のWORKSIGHT編集部と直接交流できる機会も設けています。WORKSIGHTのニュースレターやプリント版について直接質問できる絶好の機会!編集・企画にご興味のある方も、奮ってご参加ください!
■日時:
2023年5月10日(水)18:00〜21:00
■TIME TABLE:
18:00-18:30 オープニングトーク(山下正太郎・宮田文久・若林恵)
18:30-19:20 ゲスト:志良堂正史さん(手帳類図書室)
19:20-20:10 ゲスト:永井玲衣さん(哲学者)
20:10-21:00 ゲスト:荒川晋作さん、関川徳之さん(「川」編集部)
■開催方法:
会場観覧(要申込) および インスタライブ配信
■参加費:無料
■会場:
コクヨ・サテライト型多目的スペース「n.5(エヌテンゴ)」
世田谷区北沢2-23-10 ウエストフロント1階(下北沢駅より徒歩4分)
■ホスト
山下正太郎(WORKSIGHT編集長)・若林恵・宮田文久
イベントの詳細、また会場観覧のお申込みは下記ボタンよりご確認をお願いいたします。