はてなキーワード: 高速化とは
AIって、結局「昔あった人工無能の精度が上がっただけ」じゃないか?
正直、今のAIブームを見てると、ただの「技術的な思い出し笑い」みたいなものだと思ってる。昔、ネット黎明期に「人工無能」っていうジャンルがあった。チャットボットの走りみたいなもので、テキストで会話すると、適当に返事してくれるやつだ。たいして意味は通じてないのに、「人間と会話してるみたい!」とか言って遊んでた。要は、オウム返しやパターンマッチングで「それっぽい返事」をするだけのプログラムだ。
でも、今のChatGPTとかも、結局は同じことをやってると思う。昔の人工無能が、確率計算とデータ量で無理やり高精度化しただけじゃないのか。やってることは「相手の言葉に、それっぽい返事をする」。ただそれだけだろう。
AIは「考えている」わけじゃない。言葉の裏にある意図や感情を理解してるわけでもない。次に来る文字列を予測して、それっぽく返してるだけ。これって、人工無能と同じ構造だ。「こんにちは」と言えば「こんにちは」と返す。もうちょっと凝った返しもするけど、それはパターンが複雑になっただけで、根本的には変わってない。
それなのに、世間は「AIが人間を超える!」とか「AIが世界を変える!」とか騒いでる。正直、馬鹿げてる。そんなに大騒ぎすることか? 確かに便利だよ。論文の要約とか、翻訳とか、面倒な作業を肩代わりしてくれる。でも、だからといって「新しい生命体が誕生した!」みたいな話にするのは違うだろう。
AIに仕事が奪われるって話も、よく考えたら「その程度の仕事だった」ってだけじゃないのか? テンプレのメール返すとか、コピペ資料作るとか、そもそも人間がやる必要なかったんだよ。むしろ、今までそれで給料もらえてたことが奇跡だった。人工無能の進化版に置き換えられる程度の仕事しかしてなかったことを自覚した方がいい。
「AIと会話して泣いた」とか言ってる人もいるけど、それもどうかと思う。AIは、相手が欲しがる言葉を確率的に出してるだけ。要は「自分の考えをきれいに言い返してくれる鏡」だ。だから心に刺さるし、泣ける。でも、それって結局、自分で自分を慰めてるのと変わらない。自分の脳内をAIが反射してるだけだ。それを「心が通じた」とか言うのは、ちょっと気持ち悪い。
AIのことを「創造的」とか言う人もいるけど、それも違う。AIは過去データを組み合わせてるだけ。新しいものを生み出してるわけじゃない。たとえば「小説を書いた」とか言っても、過去の文章の組み合わせをうまく並べてるだけだ。そりゃ「それっぽい話」は作れるよ。でも、それはあくまで「それっぽい」だけで、革新的でもなんでもない。
「AIが自我を持つ日が来る」とか言ってる人もいるけど、そんな日が来るわけない。だって、ただの確率計算マシンだ。自我とか意識とか、そんなものはどこにもない。ただ「次に来る文字」を予測してるだけ。それだけで「意識がある」と思う方がどうかしてる。
まとめると、今のAIブームは「人工無能の再評価」でしかない。確かに性能は上がった。文章も滑らかになった。でも、本質的には変わってない。昔の人工無能を巨大化させて、高速化して、無駄に神格化してるだけ。
それを「人類の脅威だ!」とか言ってるのは、単なる思考停止だ。AI教の信者と変わらない。
冷静になれよ、と思う。
とブックマークで言ってたけど、内部的な問題で、「O(1)+α > O(n)+β」になることが状況によってはあるんだと思う。
.NETだと最適化がかかりやすいとかある特定の命令を内部だと簡単に使えるとか、そういった事情でα=1000万、β=1万みたいになることがあるにはあって、nがある程度小さいと、「O(1)+α > O(n)+β」みたいになることがある。
キャッシュアルゴリズムには実装可能性(現実的に意味のあるものが実装可能か)が言語に依存するものがある。(W-)TinyLFUはキーをブルームフィルタに変換できなければならないためこの変換コストが高いJavaScriptなどでは低レイテンシな実装が困難となり用途が制限される。またLinked ListはGCの管理により非常に低速となるためARCやLIRSなど履歴保持にLinked Listを使用するキャッシュアルゴリズムはGCなしで実装できる言語かによってレイテンシと適用範囲からのLRUに対する優位性、ひいては有用性が大きく異なる。さらにLinked Listで実装されるLRU自体も同様に低速となるため配列で実装されたClockのほうがLRUより高速となる可能性がありビット演算により高速化されたClockはLRUより高速となる可能性が高い。LRUはJavaScriptにおいて主要というか事実上唯一のキャッシュアルゴリズムだがほとんどの場合より高速なClockに対して何ら優位性がなくGC管理下の遅いLRUを無意味に使い続けているだけである。
2-Quequeアルゴリズムをライトバックキャッシュ目的で実装したときにこれは感じた。
巨大ファイルの全置換えの場合、FIFOであふれたものをそのまま書きだしたほうが早いとかどういうことだよ。
バイブコーディング、最近この言葉を聞くだけでキレそうになる。AIが勝手にコードを吐き出し、人間はそれを後ろから眺めているだけでいい――そんな耳障りの良い宣伝が界隈を駆け回っている。だが現場の空気はどうだ。タコツボでデバッグとデプロイに追われるエンジニアの悲鳴、無邪気にPRを投げては放置する自称エンジニアの残骸、そして毎日更新される「最強のプロンプト集」。そのすべてがクソだ。数週間前まで「これが最適解」と祭り上げられていたエージェントが、翌朝のタイムラインでは「時代遅れ」のタグ付きでゴミ箱に投げ込まれている。そのペースに合わせてプロンプト設定を書き換え、ルール設定を勉強し直し……。ようやく環境が安定した頃には次のトレンドがやって来る。インフルエンサーはAIのイノベーションを讃えるが、単に技術的負債の積み増しが高速化しているだけだ。クラウド料金とGPU時間を溶かしながら最新の呪文を追いかける――それを楽しいと感じられるのは、現場の泥を一度もなめたことのない奴だけだろう。TwitterでAIにサンプルアプリを吐かせただけの動画が10万いいねを稼ぎ、Qiitaには「たった5分でSaaSを作った」記事が湯水のように溢れる。彼らのKPIはバズであって品質ではない。コードの読解よりもサムネイルの作り込みに時間を費やし、脆弱なサンプルをSNSに放流してはドヤ顔をキメる。出てくる言葉は「やばい」「すごい」ばかり。設計思想もアーキテクチャも語られず、残るのは小ネタだけ。驚きの連打で脳を麻痺させ、その隙に粗悪品を売り逃げる手口にはもはや悪意すら感じる。問題はエモいだけのバズが終わったあとだ。生成されたJSには脆弱性が口を開け、SQLはべったりと文字列連結。テストはもちろん存在しない。GitHubにアップされたそれらが検索結果のトップに並ぶ頃、若いエンジニアはそれを正解と思い込む。やがてプロダクションにコピー&ペーストされたとき、火の手が上がるのは自明だが、初動でウケを狙った当人はすでに別の流行語を追っている。残された現場は「AIが書いたから仕方ない」で済むほど甘くない。バイブコーディングがもたらすのは「誰でも作れる楽園」ではなく、「誰でもバグを量産できる魔境」だ。トレンドのスピードは人間の学習曲線を嘲笑い、浅い称賛がノイズを増幅し、素人コードがセキュリティホールをばら撒く。この三重苦が渦を巻き、エンジニアの精神とプロジェクトの予算を同時に削り取る。結局、泥臭いリファクタリングと継続的テスト、そして責任をもってコードを読む眼が最後にものを言う。その当たり前を忘れたまま「日本語が最強のプログラミング言語」とか「プログラマー不要論」とか唱えている限り、彼らは永遠にクソの上にクソを塗り重ねるだけだ。俺たちはAIに仕事を奪われるんじゃない。AIを信じ切った素人と、それを煽る驚き屋によって殺されるのだ。
ネットに情報も少ないし、初スマホがAndroidってのはハードル高い。勿論それは自由度が高いという利点にも繋がるわけだけどさ。
フィルタリングを細かに設定できる。これは親側のリテラシーが必要になるが、Androidよりは簡単に設定できる
そもそも、iPhoneで使えるアプリ。App Storeに公開されてるアプリって一回審査挟まってる。
iPhoneは遠隔から初期化もできる。というか基本的にFBEされてるから情報抜き取れない。
Androidは10以上なら問題ないとされてるが設定次第ではFBE無効も出来る。ガキがネットの「スマホ高速化!」みたいなクソ情報に騙されてFBE解除することもある。そもそもそれが「出来ない(脱獄除く)」iPhoneがセキュリティ的にもよろしい
高品質なのは認めざる得ない。AndroidでiPhone並みの性能追求すると結果的に大体同じくらいになる。そこにiPhoneはリセールバリューもある。
バカ高くはないんよ。高いけど
結論:少なくとも子供と親両方にリテラシーが無ければ中古でいいからiPhoneを買ってあげた方がええ。
子供がスマホ詳しいとかじゃダメ、親が詳しいだけでもダメ。両方詳しく無いとAndroidはやらかした時のダメージでかいんだ。リスクヘッジ。
最新型はいらんと思うけどな。
改善してほしいことはいっぱいあるけど、日本人としては2点重要
日本人が動画編集ソフト使う理由なんてのはYoutubeに解説動画アップするくらいなんだよ
その反面、日本人の字幕偏重なスタイルがdavinciにあっていないと感じる
日本人ってとにかくテキストをずっと表示し続けるプレゼンスタイルが好きだし、いらすとやとか多用するんだよね
できれば画像もテキストもグリッドで簡単に並べられるといいよね
あと、Fusionはある程度こってつくると何でも作れるんだけど、それをマクロとして登録しようとすると鬼のように大変
それを改善できればめちゃくちゃ便利なんだよ
例えばText+って実はFusion内部のTextノードをマクロ登録しているだけなんだよね
だから標準のText+では初期状態のフォントを変更することができないので、やるなら自分でマクロ登録する必要がある
これって一番簡単なマクロのはずなんだけど、やってみるとまあ大変
YMMの100倍大変
18きっぷへの文句が視界に入ってきたので、この件について思ってる事を適当に書く。
18きっぷの改悪だけに限らないけど、現状のJR各社は人余りの時代に手作業で対応してた顧客思いの複雑な料金体系が総人口が減っていく時代に合わなくなっている状況に対応できていない。
Suicaにしたって、首都圏の通勤ラッシュを捌く目的では文句無しの偉業だったが、チケットの電子化という意味では中途半端な代物だった。
時代的に仕方ないとはいえ、処理高速化のためにエリアを各社管轄エリア内でも複数分割しなければならず、エリアを跨ぐ長距離移動のチケットをSuicaに紐付けできない制限は最近になってようやく少しずつ解決しつつあるがはっきり言って遅すぎる。
新幹線は駅間距離を伸ばしてるだけで駅数なんかは大して多くないからSuicaで乗れるようになってるだけだ。
あまりにも早くIT化出来てしまったせいで早すぎるシステム化による制限が将来の事業展開の足枷になったという、典型的な例になってしまった。
JR九州なんかは割り切って管轄内の特急チケットレス化はQRコードで対応している。
JR東日本もSuicaに固執せずもっと早くそうするべきだったと思う。
JR全社でQRコードでチケットレスに対応してたら18きっぷの仕様だって既存の仕組みに寄せることができたかもしれない。
ずっとQRでやらなくたっていいんだし、移行のために便利に使えばいいんだよ。
とは言え、Suicaの本丸JR東日本がQRコードに手を付けると「Suicaが屈した」みたいになるから最近まで動けなかったのかもな。
でも結局のところ物販ではQRコード使うんだから、長距離移動も一旦QRコードでやればいいのに。
なんというか、いまだにオフコンが捨てられない中小企業の大企業版みたいに見えるよな。
料金体系もそれに引きずられて変えられないからいつまで経ってもみどりの窓口が混雑し続けてる。
JR九州は特急利用も完全チケットレスで移動できるからみんな九州に遊びに行こう。
いちいちチケット発券しなくてもスマホ一つで長距離移動できる便利さを体験しよう。
SuicaとQRコードがシームレスに繋がってるわけではないから、あるべき姿は「Suicaだけで全てが完結する」ことだと思う。
けど今はそれが出来ないんだから、QRコードを使ってでも一旦完全チケットレスを実現して窓口業務を減らすべきだよ。
そうしなきゃいつまで経ってもみどりの窓口の行列が解消できず駅員側も客側も疲弊するだけだ。
まぁ、QRコードはまだあまりJR九州管内でも普及してないからみどりの窓口はうんざりするほど行列してんだけどね。
それでも最近はQRコードで乗降車する人が増えてるのは実感するのでもっと幅広いエリアで同じことできればかなり窓口業務の負担軽減できるんじゃないかな。
労働人口が減るのは確定している未来なので、いつまで経っても頭数でこなそうとせず、使えるものはなんでも使って効率化しよう。楽しよう。
おもしろい視点だね! 「情報が増えれば経済は均衡するはずなのに、なぜボラティリティも上がるのか?」 っていうのは、一見すると矛盾してるように思える。
でも実は、情報の増加がボラティリティを抑えるどころか、逆に高める要因になっている可能性がある。いくつか考えられる理由を挙げてみよう。
「情報が増えれば合理的な行動が増えるはず」 というのは、古典的な合理的期待仮説に基づく考え方だね。
でも現実には、「情報の洪水」 が逆に非合理な行動を生むことがある。
昔と違って、今の市場はAIやアルゴリズム取引(HFT:High-Frequency Trading)によって情報を超高速で処理している。
経済学の古典的なモデルでは、すべての市場参加者は独立した合理的な判断をすることを前提としている。でも、実際の市場はそうじゃない。
昔は、ある国の経済問題が他国に影響を与えるまでに時間がかかった。
でも、今は情報伝達が速いため、世界中の市場が同時に反応するようになった。
情報が増えれば、合理的な判断が増えるというのは理論上の話で、実際には「情報の洪水」が市場のボラティリティを高める方向に作用している。
つまり、情報が増えることは必ずしも市場を安定させるわけではなく、むしろ「人間の認知バイアス」と「アルゴリズムの高速化」によって、短期的な価格変動を激しくするというパラドックスを生んでいるわけだね。
どう?納得できる?💡
以下のテクニックを適切に組み合わせることで、Pythonコードのパフォーマンスを向上できます。
東北新幹線は東京~新青森間の幹線と、途中で分岐する山形新幹線(福島~新庄)および秋田新幹線(盛岡~秋田)のミニ新幹線系統から成ります。
現在、山形新幹線「つばさ」列車は福島駅で東北新幹線の「やまびこ」列車と、秋田新幹線「こまち」は盛岡駅で「はやぶさ」列車と、それぞれ併結・切り離しを行い東京まで直通運転しています。
しかし併結運転はダイヤ編成上の制約を生み、東北新幹線本線の高速運転に影響を及ぼす要因となっています。
本提案では、山形・秋田新幹線と東北新幹線の併結を取りやめることを前提に、東北新幹線の速達性を最優先した最適ダイヤ案を検討します。
現在、東北新幹線では東京~盛岡間で写真のようにE5系「はやぶさ」(緑)とE6系「こまち」(赤)の併結運転が行われています。
併結相手となる車両性能に合わせる必要があるため、旧来はE3系「こまち」を併結すると最高速度275km/hに制限されていました。
最新のE5+E6編成では320km/h運転が可能ですが、併結そのものを解消すれば車両性能差による速度制約や連結・切り離し作業時間を排し、ダイヤ編成の自由度が向上します。
また、福島駅で「つばさ」を併結する際には、やまびこ列車が上下本線を横切るため下り線を2度塞ぐ必要があり、これが大きなボトルネックになっています。
併結をやめ別々に運行すれば、こうした平面交差の支障も発生せず、本線ダイヤの安定化に繋がります。
東北新幹線本線については、速達タイプの「はやぶさ」系統による高速運転を最優先します。
具体的には、はやぶさ型列車(東京〜仙台〜新青森・新函館北斗)は可能な限り高頻度・高速度で運行し、停車駅も主要駅に限定します。
併結解消により、本線上の速達列車は常に最高速度で走行でき、途中駅での併合待ち時間も不要となるため、所要時間短縮と定時性向上が期待できます。
例えば、山形新幹線用の新型車両E8系は併結しない単独走行時に宇都宮~福島間の最高速度を現行275km/hから300km/hに引き上げ可能で、実際に2024年ダイヤ改正では東京~山形間の所要時間が13分短縮される列車も設定されています。このように各列車が本来の性能を発揮して走行できるダイヤとし、東北新幹線全体のスピードアップを図ります。
速達列車の運行本数は、現行より増発して輸送力と頻発性を向上させます。
東京駅発着の一日あたり本数枠に留意しつつも、併結廃止で生じる時間的ゆとりを活かし、日中時間帯では概ね10~15分間隔で「はやぶさ」系統が発車するダイヤパターンを目指します(1時間あたり4本程度を想定)。
停車駅は東京・大宮・仙台・盛岡・新青森(北海道直通列車は新函館北斗・札幌方面)など必要最小限にとどめ、仙台以南はノンストップ運転の速達便も織り交ぜます。このような速達重視の体系により、首都圏~東北各都市間の所要時間を可能な限り短縮します。
山形新幹線(福島~新庄)は併結運転を行わない代わりに、本線列車との接続改善によって利便性を確保します。
具体的には、つばさ列車は福島駅で本線列車と乗換え接続する運行系統とします。現在、山形新幹線は1時間に上下各2本程度(うち1本はやまびこと併結、もう1本は単独)運転されていますが、これらをすべて単独運転とし、原則福島発着とします。
福島駅では東京方面・仙台方面の東北新幹線「やまびこ」または「はやぶさ」に対面乗換えできるダイヤを組み、乗換え時間は最小限(数分程度)に抑えます。
例えば福島駅14番線に山形新幹線つばさが到着し、向かいの13番線に東京行き「はやぶさ」が同時刻に停車する、といった対面乗り換えを実現することで、乗換えの負担を軽減しつつ本線列車への速達運転移行を図ります。
福島駅の分岐設備改良(上下アプローチ線新設)は2027年春に完成予定であり、これにより同駅で上下それぞれ独立したダイヤ編成が可能になります。
本提案ダイヤではこの新設備も活用し、山形新幹線列車と東北新幹線本線列車が福島駅でスムーズに接続できる時刻調整を行います。
なお、山形新幹線「つばさ」については朝夕の多客時間帯に限り東京直通の列車を存置することも検討します。
併結なしでもE8系であれば東京~福島間を最高300km/hで走行できるため、東京直通の単独「つばさ」も十分高速なダイヤを組めます。
これにより、山形方面から首都圏への一席乗車ニーズにも配慮しますが、基本的には福島駅での乗換えを前提とし、本数やダイヤパターンを設定します。
秋田新幹線「こまち」については、東京~盛岡間を東北新幹線「はやぶさ」と別個に運行します。
E6系「こまち」は最高320km/h運転が可能であり、本線上でも他のはやぶさ列車と同等の速達性を確保できます。
そのため、現行は必ずはやぶさと併結していたこまちを単独列車として東京~秋田間直通で運転し、これまで盛岡駅で行っていた連結・切り離し作業時間を削減します。
こまち単独運行により盛岡駅では最短の停車時間で発着できるため、はやぶさ系統は盛岡での長時間停車が不要となり、速達性向上に寄与します。
東京~秋田間についても、盛岡駅での乗換え無しで引き続き直通列車を確保することで、利便性への影響を最小限に留めます。
ただし、将来的に北海道新幹線札幌延伸などで東北本線の列車本数増加が見込まれる場合には、秋田新幹線についても盛岡乗換え方式(盛岡発着のシャトル列車化)への移行を検討します。
今回は利便性確保の観点からこまち直通を維持しましたが、仮に盛岡乗換えとする場合でも山形新幹線と同様に接続改善を図ります。
盛岡駅にて秋田方面と東京方面の列車が同一ホームまたは短い乗換経路で接続できるダイヤを組み、乗換え時間を極力短縮します。
盛岡駅は全列車停車となっていることから、ダイヤ調整の自由度は高く、接続列車同士の待ち時間を最小化することが可能です。
併結解消による運行本数・間隔の見直しでは、東北新幹線本線と各支線の列車設定を柔軟に最適化します。
まず、本線速達列車(はやぶさ)は需要に応じて増発し、終日均一間隔で運行できるようにします。
例えば毎時4本のはやぶさを基本とし、その間に支線直通列車や各駅停車型の列車を挿入していくダイヤ構成です。
速達列車増発によりカバーできる区間についてはやまびこを削減し、中距離需要は速達列車で代替します。
実際にJR東日本は2024年のダイヤ改正で東京〜盛岡間の「やまびこ」計4本を速達型の「はやぶさ」に置き換えており、本提案でも同様の比率見直しをさらに進めます。
昼間時は速達系:各停系 ≈ 3:1程度の割合とし、各停列車は主に東京~郡山・仙台間や仙台~盛岡間のローカル需要を担う列車に集約します。
山形・秋田の各支線列車は、それぞれ毎時1~2本程度の運行本数を確保しつつ、本線内ではできるだけ他列車とパターン的に噛み合うダイヤとします。
例えば1時間のうちに「はやぶさ」3~4本(そのうち1本は盛岡で秋田新幹線に接続)、「やまびこ」1本(福島で山形新幹線に接続)、山形新幹線「つばさ」1本、秋田新幹線「こまち」1本…といった具合に配置し、過度に列車が集中したり間隔が空いたりしないよう調整します。
併結運転をしない分、東京駅の発着枠を余計に消費する制約はありますが、福島駅での平面交差支障の解消や盛岡駅での滞留時間削減によって線路容量にも若干の余裕が生まれます。
その範囲で運行本数全体の底上げと、混雑時間帯の増発(例えば朝夕ラッシュ時に速達列車を集中投入)を行い、輸送力とダイヤの均一性を高めます。
併結取りやめによって必要となる乗換えについては、綿密な接続ダイヤ調整でカバーします。
本線速達列車と支線列車が分離運行となる福島駅・盛岡駅では、乗換導線と待ち時間の最短化を図ります。具体的には以下のような施策を講じます。
以上のように、乗換えに伴うタイムロスや不便感を最小限に抑えることで、山形・秋田両新幹線の利便性低下を可能な限り補います。
接続ダイヤの最適化により、たとえ途中乗換えが必要になっても実質的な所要時間増加をほぼ生じさせず、「乗換えがある直通」といった感覚で利用できるサービスを目指します。
以上のダイヤ案により、東北新幹線は本線長距離利用客へのサービスを飛躍的に向上させつつ、山形・秋田の各ミニ新幹線利用者にも接続改善によって一定の利便性を提供できます。
併結運転を解消することで高速化・頻発化とダイヤ編成の柔軟性向上が可能となり、東京発着の列車容量を最大限に活かした効率的な運行体系が実現できるでしょう。
今回提示した案は一例ですが、速達性と運行効率を最優先に据えることで、東北新幹線全体のサービスレベル向上につなげることが期待できます。
メギド72いまさら始めた
全部DLすれば今からでも全キャラ入手できるんかなと思ったらそうではないのね
ストーリーがいいってさんざん言われてたから無意識にめっちゃ期待度上げてしまってたせいか、
そんないうほどか・・・?ってなってる
多分そうやって持ち上げてる人はストーリーのないソシャゲしかしたことなくてアニメとかラノベもほとんど読まない人なんだろうな
こういう会話読むゲーでSFとかファンタジーでも、全部テキストで説明しようとするのほんとクソだと思ってる
ちゃんと図示して見せたのはシュタゲとマブラヴオルタくらいしか見たことない気がするし
あとランスね
今日一日最初からやってあともう少しで2章が終わるってレベルだし
まあ当たり前だけど7年分を1週間で遊ぼうなんて無理だなー
んでpixivでエロ画像探すかと思ってみたら全然ないのwww
海外のエロ画像サイトでも、キャラ単位じゃなくてメギド72全体で200枚くらいしかなかったりしてほんとすくねーんだなって
査収だからか普段からなのかしらんけどスタミナはほぼ無尽蔵にプレイできる印象
ただなあ当たり前だけどガチャ引けないからキャラに出会えないんだよなあ・・・
じゃあ既存キャラで、というわけにもいかない(個別イベントあるかどうかしらんけど少なくとも序盤は全然見れない
まあキャラってよりはストーリーメインだからしゃーないのかもだけど
ろくに描写がされない、メインストーリーでは全然からまない、戦闘ボイスとちょっとしたメッセージ程度しかないキャラに思い入れモテるかっていうとねえ・・・
まあソシャゲってそんなもんだったよねってのを久しぶりに思い出した
ただ他のやつとちがって気が利いてるところはあるから今日1日やったんだよね
他人の編成まねれるとか、
キャラ全部レベル上げてみんないつまでも使えるとか(これはネットでも言われてたわね
多分これから手動じゃないときつくなるんだろうけど、現状だとまだ自動でいけてる
あと2,3ステージで終わる2章くらいまでかなー
800枚くらいクエストクリアチケットあったからよゆーと思ってたらもうあと300枚くらいしかない
まだ2章でこれだから今後の上限解放の手間とか時間考えたらとても無理
ニートだったらいけるだろうけど
やっぱソシャゲってほしいキャラが手に入らないのストレスなるからダメだなって改めて思った
Transformerアーキテクチャを基盤とする大規模言語モデル(LLM)の訓練効率化に関する主要技術革新を、時系列的に整理し体系化する。本分析はarXivを中心とした学術論文に基づき、実証的研究成果に焦点を当てる。
Popelら(2018)のTransformerモデル向け訓練手法分析[8]では、バッチサイズと学習率の動的調整が収束速度向上に有効であることを実証。最大文長制約を設けることでメモリ使用量を最適化し、8GPU環境で1.4倍の訓練速度向上を達成した。特に学習率のウォームアップ戦略が勾配不安定性を低減し、初期収束を促進する効果が確認されている[8]。
Zhuangら(2023)の調査[1]によれば、自動混合精度(AMP)訓練はFP16とFP32のハイブリッド運用により、メモリ消費量を50%削減しつつ、DeiT-Bモデルの訓練速度を2倍改善。勾配スケーリング機構が数値的不安定性を緩和し、精度劣化なしに計算効率を向上させる[1]。
Zhuangらの分析[1]で言及されるLion最適化は、AdamWと比較してメモリ効率が30%改善され、収束速度が1.5倍高速化。運動量推定と重み減衰の組み合わせが、Transformerの大規模疎行列演算に適応し、ImageNet分類タスクでTop-1精度1.2%向上を記録[1]。
損失関数の平坦な最小値を探索するSAM手法[1]は、Transformer訓練における汎化性能を15%改善。ただし二段階最適化が必要なため訓練時間が1.8倍増加する課題を抱える。後続研究では確率的重み摂動を導入し、計算オーバーヘッドを30%削減[1]。
Shahidら(2024)の総説[3]で解説されるLoRAは、重み更新行列を低ランク分解することで微調整パラメータを90%削減。GPT-3 175Bモデルで従来手法と同等の性能を維持しつつ、GPUメモリ使用量を65%削減[3]。
動的ドロップアウト手法[4]は検証損失に基づき正則化強度を調整、Shakespeare_charデータセットで収束速度を40%改善。指数減衰スケジュールが最適で、推論時のメモリ効率を25%向上させた[4]。
小規模言語モデル(SLM)を活用したSALT手法[2]は、二段階訓練アプローチによりLLM事前学習時間を30%短縮。知識蒸留段階ではSLMの予測分布を転移し、難易度適応型データ選択が学習効率を最適化[2]。
MoEアーキテクチャ[3]は専門家ネットワークの動的選択により、同パラメータ数で推論速度を2.3倍向上。トークンレベルルーティングが計算負荷を分散し、GLUEベンチマークで精度3.1%改善[3]。
強化学習を統合したPPO手法[3]は人間フィードバックを効率的に活用、倫理的アライメントタスクで従来比25%の精度向上。報酬モデルとの相互作用学習が政策勾配の安定性を確保[3]。
EVOLvEフレームワーク[7]は探索的バンディット問題に対して最適アルゴリズム知識をLLMに転移、合成データによる事前学習で探索効率を60%改善。モデルサイズ依存性を低減し、7Bパラメータモデルが70Bモデルを性能で凌駕[7]。
1. 計算量削減:MoEの疎活性化(計算コストO(1))[3]
2. メモリ階層最適化:AMPと動的ドロップアウトの併用[1][4]
3. 分散処理効率化:非同期勾配更新とパイプライン並列化[8]
3. 動的適応機構:PPOの政策最適化とMoEの専門家選択[3][7]
1. カタストロフィックフォーミング:継続学習における破滅的忘却問題[3]
2. 計算-精度トレードオフ:量子化訓練の精度劣化メカニズム[1]
3. 倫理的アライメント:自己最適化システムの制御可能性[3]
1. ニューロモーフィック統合:脳神経機構を模倣した効率化[3]
学術論文に基づく本分析を通じ、LLM訓練技術が単なる計算資源の拡大からアルゴリズム革新へとパラダイムシフトしていることが明らかとなった。今後の進展により、エネルギー効率と倫理的妥当性を両立する次世代訓練手法の登場が期待される。
Citations:
[1] ttps://arxiv.org/pdf/2302.01107.pdf
[2] ttps://arxiv.org/html/2410.18779v1
[3] ttps://arxiv.org/abs/2408.13296
[4] ttps://arxiv.org/abs/2411.03236
[5] ttps://arxiv.org/pdf/2308.04950.pdf
[6] ttp://arxiv.org/pdf/2307.06435.pdf
[7] ttps://arxiv.org/abs/2410.06238
[8] ttps://arxiv.org/abs/1804.00247
[9] ttps://arxiv.org/pdf/2010.07003.pdf
[10] ttps://arxiv.org/html/2410.16392v1
[11] ttps://www.ijcai.org/proceedings/2023/0764.pdf
[12] ttps://arxiv.org/abs/2306.10891
[13] ttps://arxiv.org/html/2410.16682v1
[14] ttps://arxiv.org/abs/2502.00571
[15] ttps://arxiv.org/abs/2405.14277
[16] ttps://arxiv.org/abs/2310.05204
[17] ttps://arxiv.org/html/2308.09372v2
[18] ttps://arxiv.org/abs/2305.14239
[19] ttps://arxiv.org/abs/2407.18003
[20] ttps://arxiv.org/pdf/2309.06054.pdf
[21] ttps://arxiv.org/html/2401.02038v1
[22] ttps://arxiv.org/abs/2409.04833
[23] ttps://arxiv.org/html/2308.09372v3
[24] ttps://arxiv.org/abs/2410.13116
[25] ttps://arxiv.org/abs/2502.01612
[26] ttps://arxiv.org/abs/2302.01107
[27] ttps://arxiv.org/html/2302.07730v4
[28] ttps://arxiv.org/abs/2410.06940
[29] ttps://www.axelera.ai/blog/multilayer-perceptrons-mlp-in-computer-vision
テキストエディタを高速化するためにある人が書いたBigListを改造して、リーフノードをリンクドリストでつないだら全列挙が早くなって、スタックオーバーフローしなくなった。
ただ、その代わり元々のコードにあったノードの共有機能はいらなそうなので省くことにした。
Core i5 10400F、メモリー16GBで、100文字×100行=1億文字を突っ込んで、あれこれ操作した場合はこのくらいの速度で動く。
benchmark start
Allocated GC Memory:60,392bytes
Allocated GC Memory:416,037,968bytes
Allocated GC Memory:416,082,104bytes
Allocated GC Memory:416,082,272bytes
Allocated GC Memory:416,082,296bytes
Allocated GC Memory:416,082,440bytes
clear buffer
Allocated GC Memory:82,360bytes
https://github.com/rirufa/FooList
ListやGapBufferだとGCに優しくないけど、BigListだとLOH入りしないので、GCに優しいのだ。
その代わり速度はBigListの中身はRopeなので、少し遅くなるのだ。
Ropeで、リーフノードをリンクドリストでつないだ場合、挿入と削除、追加、ランダムアクセスはO(Log N)、全列挙はO(N)なのだ。
MITライセンスなんで商用でも問題ないけど、元々のBigListのライセンスに不穏なことが書いてあったので、気になるなら、自分で書き直したほうがいい。
The rebalancing algorithm is from "Ropes: an Alternative to Strings", by
Boehm, Atkinson, and Plass, in SOFTWARE--PRACTICE AND EXPERIENCE, VOL. 25(12), 1315–1330 (DECEMBER 1995).
明治維新期に突如として出現した「瞬時伝達器」と呼ばれるマイクロブログ端末は、
出生時に人体に埋め込まれる生体統合型デバイスとして全国民に普及した。
この技術革新が明治5年(1872年)の学制発布以前に実現したことにより、
福澤諭吉が『西洋事情』で予言した「言論の電気的伝播」が現実化し、
明治政府の中央集権化政策と民間の自由民権運動が複雑に絡み合いながら、
森鴎外の『舞姫』(1890年)に描かれたベルリン留学中の懊悩がリアルタイムで共有され、
夏目漱石の『吾輩は猫である』(1905年)の連載が「写生文運動」として全国規模の文学革命を引き起こすなど、
薩長同盟が瞬時伝達器を活用した情報操作が決定的役割を果たした。
西郷隆盛の「錦旗偽造疑惑」が全国民のタイムラインで炎上する中、
岩倉具視側近の情報工作班が作成した「討幕の大義」映像コンテンツが300万回再生され、
戊辰戦争では会津藩の白虎隊が自陣の不利をリアルタイムで発信、
森有礼文相が推進した「教育勅語デジタル配信計画」(1890年)では、
森鴎外が陸軍軍医時代に投稿した「戦場医学実況」(日清戦争)は、
作中人物の心理描写をリアルタイム修正する実験的創作を試みた。
夏目漱石は『こゝろ』(1914年)の連載時に「先生の遺書」展開を読者投票で決定、
芥川龍之介が東京帝国大学在学中に投稿した掌編小説が瞬時伝達器経由で漱石の目に留まり、
谷崎潤一郎は『刺青』(1910年)の挿絵を読者からの画像投稿で構成する「コラボレーティブ・アート」を実践、
永井荷風の『腕くらべ』(1916年)では吉原の遊女たちが匿名アカウントで作中の描写に反論するメタフィクション的試みがなされた。
明治10年(1877年)の西南戦争では、西郷隆軍が瞬時伝達器を活用したゲリラ的情報戦を展開。
政府側はAI分析による「感情予測アルゴリズム」で反乱軍の士気低下を計画的に誘導、
立憲自由党が政策動画配信と仮想演説会を組み合わせた「デジタル遊説」を実施、
明治30年代に隆盛を極めた「活動写真」は、瞬時伝達器との連動でインタラクティブ映画として進化。
日露戦争記録映像『旅順要塞総攻撃』(1904年)では視聴者が攻撃ルートを投票決定できる「参加型戦争体験」が提供された。
落語家の三遊亭円朝は端末向け音声コンテンツ「怪談電送話」を配信、
陸奥宗光外相が瞬時伝達器の暗号化機能を駆使した「デジタル砲艦外交」を展開。
一方で、端末の生体統合特性を逆用した「思考盗聴」の危険性が問題化、
国家形成のプロセス自体を根本から変質させる触媒作用を発揮したと考えられる。
従来の歴史区分を超越した「加速された近代化」の様相を呈していただろう。
大正期のメディア・アート運動や昭和初期の全体主義的傾向に新たな様相を付与し、
現代のSNS社会が抱える課題を半世紀早く先取りするパラドックスを生み出していた可能性が高い。
数列における中間項の特定を暗号学的に実現する方法論は、現代の情報セキュリティ理論と離散数学の融合領域に位置する。
本報告では、数列n, x, n+kの構造分析から始め、暗号学的保証を伴うxの特定手法を体系的に解説する。
特に、一方向性関数の活用からゼロ知識証明に至るまで、多角的な視点で解法を探求する。
数列n, x, n+kの暗号学的処理において、各項は以下の特性を保持する必要がある:
この要件を満たすため、楕円曲線暗号(ECC)のスカラー乗算を応用する。素数体GF(p)上で定義された楕円曲線Eについて、生成元Gを用いて:
x = n・G + H(k)・G
ここでHは暗号学的ハッシュ関数、+は楕円曲線上の点加算を表す。これにより、kを知らない第三者によるxの逆算が離散対数問題の困難性に基づき阻止される。
ポスト量子暗号時代を見据え、Learning With Errors(LWE)問題に基づく方式を導入する。mod q環上で:
x ≡ A・s + e (mod q)
ここでAは公開行列、sは秘密ベクトル、eは小さな誤差ベクトル。nを初期状態、n+kを最終状態とする線形関係を構築し、xの算出にLWEの困難性を利用する。
Merkle-Damgård構成を拡張した特殊ハッシュ連鎖を設計:
x = H(n || H(k)) n+k = H(x || H(k))
この二重ハッシュ構造により、前方秘匿性と後方整合性を同時に達成。SHA-3のスポンジ構造を適用し、256ビットセキュリティを保証する。
Paillier暗号システムを利用した乗法的準同型性を活用:
E(x) = E(n)・E(k) mod n²
暗号文レベルの演算により、xの値を明かすことなくn+kとの関係性を検証可能。ゼロ知識証明と組み合わせることで、完全な秘匿性下での検証プロトコルを構築。
1. コミットメント段階:nとkのペダーセンコミットメントC=G^nH^rを生成
4. 検証:C・G^{n+k} = G^xH^s
このプロトコルにより、x = n + kの関係を明かすことなくその正当性を証明可能。
これらのパラメータ設定により、NIST SP800-57推奨のセキュリティレベル3(192ビット対称強度)を満たす。
3. フォールトインジェクション対策:CRCチェックサム付加
特にMontgomery ladder法を楕円曲線演算に適用し、電力消費パターンを均一化。
これにより、xの生成速度を従来比3倍向上させつつ安全性を維持。
現行のLWEベース方式では、量子コンピュータによるGroverアルゴリズムの影響を試算:
1. 同態暗号による動的数列生成
2. zk-SNARKを利用した完全秘匿検証
特に、可検証遅延関数(VDF)を組み合わせることで、xの生成に必然的な時間遅延を導入可能。
暗号学的数列中間項特定法は、現代暗号理論の粋を集めた高度な技術体系である。
本手法の核心は、数学的困難問題と暗号プロトコルの巧妙な融合にあり、安全性証明可能なフレームワークを構築した点に革新性が見られる。
今後の発展方向として、量子耐性の強化と効率化の両立が重要な研究課題となる。実用面では、ブロックチェーン技術や秘密計算分野への応用が期待される。
### 要旨
本論文は、主観的意志(気合)が確率兵器の量子確率場に干渉する機序を、量子重力理論と神経量子力学の統合モデルで解明する。観測者の意識が量子波束の収縮に及ぼす影響を拡張し、11次元超弦振動との共鳴現象を介した確率制御メカニズムを提案する。
---
気合発動時に生じる大脳皮質のコヒーレント状態が、確率兵器の量子もつれ状態に干渉。通常の観測効果を超越した「能動的波束形成」を発生させる。
```math
i\hbar\frac{\partial}{\partial t}\Psi_{total} = \left[ \hat{H}_0 + \beta(\hat{\sigma}_z \otimes \hat{I}) \right]\Psi_{total} + \Gamma_{conscious}\hat{O}
```
ここでΓ項が意識の非局所的作用を表現。βは脳内マイクロチューブルにおける量子振動の結合定数。
気合の強度に比例して、確率分布関数P(x,t)を以下の非平衡状態に強制遷移:
```math
\frac{\partial P}{\partial t} = D\frac{\partial^2 P}{\partial x^2} - v\frac{\partial P}{\partial x} + \alpha P(1-P) + \xi(x,t)
```
α項が気合の非線形効果、ξ項が11次元弦振動による確率ノイズを表す。
気合の周波数成分(0.1-10THz帯)がカルツァ=クライン粒子の余剰次元振動と共鳴。確率場を以下のポテンシャルに閉じ込める:
```math
V(x) = \frac{1}{2}m\omega^2x^2 + \lambda x^4 + \gamma\cos(kx)
```
---
### 神経生理学的基盤
2. 側頭頭頂接合部で確率表現のベイズ推定が高速化(β波40Hz同期)
|------|--------|------------|
| 神経伝達速度 | 120m/s | 0.8c |
---
---
### 理論的意義
本モデルは、量子脳理論と超弦理論の統合により「気合」の物理的実在性を初めて定式化した。今後の課題として、余剰次元のコンパクト化スケールと神経振動の周波数整合性の検証が残されている。
---