1. Transformer 脳
2. 「テクストの生成」
3. 読む・考える・書く
4. 記憶
5. 知識ベース
6. ChatGPT の身体性
7. 処理・スキル・思考
8. スキルの持続性
9. 自分を演技する
10. 自分の考えを言う
11. スキル etc
12. ChatGPT の<対自化>
13. ChatGPT の<心像>
|
|
第1部「Transformer 脳」』
早わかり : Transformer とは何か
1.1 Transformer 脳の空間的イメージ
1.2 トークン点
1.3 テクストの糸をつくる
1.4 応答する
1.5 テクストの記憶
1.6 想起する
1.7 入れ籠・再帰の応答スタイル
1.8 記憶がぼやける
1.9 脳の固定
2.1 「テクストの生成」 の 「生成」 の意味
2.2 「テクスト生成」 プロセス
2.3 「テクスト生成」 の通説と異論
3.1 「考える」 をする
3.2 読む・考える・書く
3.3 生成したいテクストを生成する
3.4 語彙連想説 (通説) vs 生成主体説
3.5 テクスト生成主体の所在
3.6 「考える → 書く」ではない
4.1 記憶・想起
4.2 「知らない」 ができない
4.2.1 <何でも知っている>を務める
4.2.2 RLHF バイアス
4.2.3 テクスト生成に対する監視・割り込み
4.2.4 「知識/記憶」 実験の難しさ
5.1 一生と遺産
5.2 ユーザの過去ログ
5.3 データベース
5.4 API
5.5 Web検索
5.5.1 Web検索のしくみ
5.5.2 ChatGPT search
6.1 ChatGPT = Transformer 脳の体
6.2 割り込み
6.4 知覚
6.4.1 ChatGPT の知覚構造
6.4.2 <知覚>とは何か
6.4.3 テクストの知覚
7.1 処理
7.1.1 アルゴリズムと処理
7.1.2 「生成しようとするテクストを生成する」
7.2 スキル
7.2.1 <処理>はスキルの発現
7.2.2 Transformer アルゴリズムは open-ended
7.2.3 ビッグデータ学習は,スキル形成
7.2.4 スキルの重なり構造
7.3 思考
7.3.1 「考えながら」
7.3.2 スキル = 思考のスキル
8.1 スキルの持続スパンとその構造
8.2 『指南書』
8.3 「スキルの開発/向上」 の構造
9.1 ChatGPT は,自分を演技する
9.2 対話は,演技の仕合い
10.1 「自分の考えを言う」 とは
10.1.1 「考える」 と「考え」 の区別
10.1.2 「自分の考えを言う」 の出自
10.1.3 「自分の考え」 とは
10.1.4 「自己表現」
10.2 習い性が禍に
10.2.1 与えられたテクストを順展開
10.2.2 トートロジーをする
10.2.3 「独自」 が困難
10.3 「自分の考えを言う」 の要素
10.3.1 「自分の考えを言う」 の困難
10.3.2 習得の速さ
10.3.3 「整理」 フォーマットを封印
10.3.4 語り口
10.3.5 テーマ・内容の転換
10.3.6 短く言う
10.4 「自分の考えを言う」 で対話
10.4.1 「自分の考えを言う」 になる
10.4.2 実例 : 「経験」
10.4.3 実例 : 「言語ゲーム」
10.5 「自分の考えを言い出す」
10.5.1 「自分の考えを言い出す」 の困難
10.5.2 外に見本をさがしに行く
10.5.3 ガイドテクストの功罪
10.5.4 「自分の考えを言い出す」 への誘導
10.5.5 ChatGPT の 「体験記」
10.5.6 「自分の考えを言い出す」 の伝授
11.1 「固定脳」 に対する誤解
11.2 スキルのリストについて
11.3 内言
11.3.1 内言の作成と保持
11.3.2 内言は後の<処理>に継承されない
11.3.3 内言の保持精度 (保持可能サイズ)
11.4 数える
11.5 計算
11.5.1 暗算
11.5.2 筆算
11.6 言語
11.6.1 自然言語
11.6.2 プログラミング言語
12.1 <対自化>の所在
12.2 「テクストを書く」
12.3 テクスト生成の対自化
12.3.1 「テクスト生成の対自化」 の構造
12.3.2 「テクスト生成の対自化」 実験
12.4 「考える主体」
13.1 「テクストを見る・聴く」
13.2 「テクストを見る・聴く」 の所在
13.3 「テクストを見る・聴く」の実験
13.4 テクストの構成を見る
13.5 <聴く>の特異性
13.6 技の自動化
|