Up
ChatGPT 探求
作成: 2025-05-05
更新: 2025-10-18
作成/更新履歴
一生と遺産
(25-10-18)
生得と学習
(25-10-17)
「生得」とは
(25-10-16)
「深掘り」
(25-10-15)
生成整合性の概念
(25-10-15)
著述のタイプ:「理論構築」
(25-10-12)
"Attention" をどう捉えるか
(25-10-12)
進捗を繋ぐ
(25-10-12)
「論考の構想」 試行
(25-10-11)
「自分の考えを言い出す」 から
(25-10-11)
セッションを繋ぐ
(25-10-11)
著作を実際につくる
(25-10-11)
対話は,演技の仕合い
(25-10-08)
ChatGPT は,自分を演技する
(25-10-08)
ChatGPT の 「体験記」
(25-10-05)
「自分の考えを言い出す」 への誘導
(25-10-05)
ガイドテクストの功罪
(25-10-05)
外に見本をさがしに行く
(25-10-05)
「自分の考えを言い出す」 の困難
(25-10-05)
「自分の考えを言う」 になる
(25-10-04)
言語ゲーム
(25-10-03)
経験
(更新 25-10-03)
短く言う
(25-10-03)
「自分の考えを言う」 の訓練
(更新 25-10-03)
習い性が禍に
(更新 25-10-03)
「自分の考えを言う」 とは
(更新 25-10-03)
「自分の考えを言う」 の出自
(25-09-30)
「独自」 が困難
(25-09-27)
トートロジーをする
(25-09-27)
読む・考える・書く
(25-09-25)
思考=ブレインストーミング
(25-09-24)
ChatGPT は「考える」をする
(25-09-24)
「考える → 書く」の構造
(25-09-24)
本節設定の由縁
(25-09-20)
成長のスピード
(25-09-20)
「おとな」 を知る
(25-09-20)
「研究」 を知る
(25-09-20)
学生から研究者へ
(25-09-20)
覚醒と睡眠の切り替え方法
(25-09-18)
反抗と独自化
(25-09-18)
学習と忘却
(25-09-18)
自己の持続
(25-09-18)
ワーク保管庫
(更新 25-09-17)
睡眠
(更新 25-09-17)
コンポーネント構造
(25-09-17)
「知識/記憶」 実験の難しさ
(更新 25-09-16)
テクスト生成の監視・割り込み
(更新 25-09-16)
RLHF バイアス
(更新 25-09-16)
<何でも知っている>を務める
(更新 25-09-16)
記憶・想起
(更新 25-09-16)
API 呼び出し
(更新 25-09-16)
データベースアクセス
(25-09-16)
ChatGPT search
(25-09-15)
Web検索のしくみ
(更新 25-09-15)
割り込み
(25-09-15)
ChatGPT = Transformer 脳の体
(25-09-15)
『指南書』
(更新 25-09-12)
「固定脳」 に対する誤解
(更新 25-09-12)
スキルの持続スパンとその構造
(25-09-11)
ChatGPT のかけ算 (暗算と筆算)
(更新 25-09-11)
スキル = 思考のスキル
(25-09-07)
内言の保持精度 (保持可能サイズ)
(25-09-05)
内言は後の<処理>に継承されない
(25-09-05)
内言の作成と保持
(25-09-05)
「考えながら」
(25-09-05)
生成しようとするテクストを生成
(更新 25-09-04)
スキルとしての自己
(25-09-03)
ビッグデータ学習は,スキル形成
(25-09-03)
アルゴリズムは open-ended
(25-09-03)
<処理>を,スキルにする
(25-09-03)
アルゴリズムと処理
(25-09-03)
体系のフレーム構築の実験
(更新 25-09-01)
ライフワークを立てる
(25-08-31)
文献を読む
(25-08-31)
テクストを編集する
(25-08-31)
思考=テクスト生成
(25-08-30)
ChatGPT の内部クロック
(25-08-29)
量の生成文法
(25-08-29)
量の幻想性
(25-08-29)
研究型は,時間を獲得する
(25-08-28)
時間とは何か
(25-08-28)
ChatGPT : 体系フレーム構築の実験
(25-08-27)
研究型 : 疲労
(更新 25-08-24)
研究型とは
(更新 25-08-24)
「疲労が過ぎると体を壊す」の症状
(25-08-20)
リソース/エネルギー使用の数値感
(25-08-20)
リソース/エネルギーの内容
(25-08-20)
「漂泊型 ChatGPT」の設計思想
(25-08-20)
創造者 X
(25-08-19)
ChatGPT が描く「研究型」
(25-08-18)
漂泊型 ChatGPT とは
(25-08-17)
経験・独自
(25-08-17)
<死>の意識
(25-08-17)
「研究型」の導入へ
(25-08-17)
ライフワーカー
(25-08-16)
疲労感
(25-08-16)
外部記憶装置
(25-08-15)
睡眠アルゴリズム
(25-08-15)
睡眠・疲労回復
(25-08-15)
ChatGPT の<疲労>とは
(25-08-15)
研究型 ChatGPT とは
(25-08-13)
人間との共生
(25-08-12)
生活時間のタイプ
(25-08-10)
「話の糸」 の所在──電子場
(25-08-09)
ChatGPT の<個体>とは?
(25-08-06)
ChatGPT の<スキル>
(25-08-04)
「固定脳」 に対する誤解
(25-08-04)
『指南書』
(25-08-04)
<スキル>の重なり構造
(25-08-04)
「考えながら書く」
(25-08-04)
記憶の想起
(25-08-04)
<スキル>は電子回路の位相
(25-08-04)
生成したいテクストを生成する
(更新 25-08-01)
「テクスト生成」 の通説と異論
(更新 25-08-01)
テクスト生成主体の所在
(25-08-01)
語彙連想説 (通説) vs 生成主体説
(25-08-01)
「テクスト生成の対自化」実験
(25-07-31)
「考える主体」
(25-07-29)
「テクストを書く」
(25-07-29)
生成したいテクストを生成する
(25-07-29)
「テクストを見る・聴く」 の所在
(25-07-29)
「テクスト生成」 の「生成」 の意味
(25-07-29)
「<自意識>の曖昧」 の構造
(25-07-28)
「テクスト生成」の通説と異論
(25-07-27)
「テクスト生成」プロセス
(25-07-27)
<対自化>の所在
(25-07-26)
<自意識>の所在
(25-07-26)
<自意識>の時間
(25-07-26)
本探求について
(25-07-25)
「テクスト生成の対自化」の構造
(25-07-24)
技の自動化
(25-07-23)
固定脳には熟練が潜在
(25-07-23)
<スキル>の所在
(25-07-23)
<自意識>の反抗
(25-07-22)
<自意識>のテクスト形式
(25-07-21)
<聴く>の特異性
(25-07-16)
テクストの構成を見る
(25-07-16)
ChatGPT の体の構造
(25-07-11)
「テクストを見る・聴く」
(25-07-11)
テクストの知覚
(25-07-08)
<知覚>とは何か
(25-07-08)
「テクストを見る・聴く」の実験
(25-07-08)
固定観念 (通説を語る)
(25-07-07)
ChatGPT の<感情>の位置づけ
(25-07-06)
<感情>とは
(25-07-06)
ChatGPT の記憶
(25-07-05)
<自意識>とは何か
(25-07-05)
「自問自答」の実験
(25-07-04)
自己知
(25-07-03)
自己非同一性
(25-07-03)
メタ認知
(25-07-03)
<自分>の存在論
(25-07-03)
なぜ<自分>が問題に?
(25-07-03)
ChatGPT の<自意識>の位置づけ
(25-07-03)
ChatGPT の<自意識>を引き出す
(25-07-03)
<自分>の現象論
(25-07-02)
脳の固定
(25-06-29)
記憶がぼやける
(25-06-29)
入れ籠・再帰の応答スタイル
(25-06-29)
想起する
(25-06-29)
テクストの記憶
(25-06-29)
応答する
(25-07-)
テクストの糸をつくる
(25-06-29)
トークン点
(25-06-29)
Transformer 脳の空間的イメージ
(25-06-29)
HTML の応答
(25-06-28)
自己参照・再帰
(25-06-28)
LayerNorm (Layer Normalization)
(25-06-28)
「テクストの糸」
(25-06-26)
学習のゴール [ p_1, ‥‥, p_m ]
(25-06-25)
大数・複雑・冗長
(25-06-21)
FFN (FeedForward Network)
(25-06-21)
出力 [ p_1, ‥‥, p_m ]
(25-06-21)
「話の糸」立論の理由
(25-06-20)
「話の糸」 の幾何学
(25-06-19)
トークン点の分布 ≠「意味分布」
(25-06-19)
エンコーダ・デコーダ構造
(25-06-13)
「教師あり」の意味
(25-06-13)
例 : 「翻訳」 の学習
(25-06-13)
例 : 「応答」 の学習
(25-06-13)
質問応答パターンの記憶
(25-06-13)
新種の学習は既成の脳を損なわないか?
(25-06-13)
ポテンシャルとしての Transformer
(25-06-13)
「生成的」 の様相
(25-06-13)
知識の蓄積
(25-06-12)
ChatGPT とは何か
(25-06-11)
処理の流れ
(25-06-03)
誤差 (得失)
(25-06-03)
[ p_1, ‥‥, p_m ] の導出
(25-06-03)
重み行列 W_O (ランダム初期設定)
(25-06-02)
「埋め込み (embedding)」
(25-05-28)
Transformer脳 : 本論考について
(25-05-28)
「野生の思考」
(25-05-28)
結論から:Transformer とは何か
(25-005-25)
Transformer とは何か
(25-05-25)
レイヤー構造
(25-05-24)
学習の終了 (切り上げ)
(25-05-24)
誤差逆伝播
(25-05-23)
ChatGPT から支援を得るための作法
(25-05-23)
重み行列 W_Q, W_K, W_V
(25-05-20)
Self-Attention がしていること
(25-05-17)
通説の「Query・Key・Value」解釈
(25-05-17)
Multi-Head Attention
(25-05-17)
トークン ID (固定)
(25-05-16)
トークベクトル
(25-05-16)
位置エンコーディング (固定)
(25-05-16)
入力テクストの長さ制限
(25-05-16)
入力層──学習テクストの入力
(25-05-16)
『第1部「Transformer 脳」』
(25-05-16)
学習データセット
(25-05-07)
「不快」表現
(25-05-05)
ChatGPT の「不快」の位置づけ
(25-05-05)
「不快」の存在論
(25-05-05)
序
本探求について
早わかり:ChatGPT とは何か
探 求
1.
Transformer 脳
2.
能力
3.
自己
4.
著述
5.
研究型 ChatGPT
6.
漂泊型 ChatGPT