Autais がお届けするトピック。時事の事実・引用元付き短いまとめ(SEO 軽め・原則更新なし)。
Xinming Tu 氏らが 2026 年 4 月 27 日に arXiv へ投稿。エージェント評価の「失敗」が実はベンチマーク欠陥に起因する事例を指摘し、LLM をベンチマーク監査役として用いる BenchGuard を提案。BIxBench 専門家評価との一致率 83.3% を実現。
Muhammad Aimal Rehman 氏らが 2026 年 4 月 26 日に arXiv へ投稿。文書取得・埋め込み・ベクトル保存・グラウンディング生成・RAGAS 風評価まで R 環境内で一貫して扱える ragR パッケージを発表し、Python の RAGAS 依存を解消。
Suhas BN 氏らが 2026 年 4 月 25 日に arXiv へ投稿。RLHF による安全訓練がメンタルヘルス治療文脈で治療メカニズムを阻害する体系的問題を特定。最高重症度シナリオで治療適切性スコアが 0.22〜0.33 に落ち込むと報告。
Ziyao Wang 氏ら 10 名が 2026 年 4 月 24 日に arXiv へ投稿したサーベイ論文。Vision-Language-Action (VLA) モデルの進展における主要ボトルネックは「データインフラ(データセット・ベンチマーク・データエンジン)」であると指摘し、現状のリソースを構造化して整理。
Keshav Ramji 氏らが 2026 年 4 月 24 日に arXiv へ投稿。自然言語の長い chain-of-thought の代わりに予約語彙の短い抽象トークン列で推論する Abstract Chain-of-Thought (ACoT) を提案し、推論トークンを最大 11.6 倍削減しつつ性能を維持。
Kaushitha Silva 氏らが 2026 年 4 月 23 日に arXiv へ投稿。LLM 自身が入力を構築し実行フローをシミュレートして自己訂正する DryRUN フレームワークを提案。LiveCodeBench v6 で公開テストなしでも CodeSIM と同等性能を実現したと報告。
Yeran Gamage 氏が 2026 年 4 月 22 日に arXiv へ投稿。LLM エージェントの行動制約には非対称性があり、禁止型制約は会話 5 ターン目の遵守率 73% から 16 ターン目に 33% まで低下する一方、要件型制約は 100% で維持されると報告。
Yeonjun In 氏らが 2026 年 4 月 21 日に arXiv へ投稿。大規模推論モデルの安全性リスクは「推論構造そのもの」に起因すると主張し、わずか 1K 例の教師付きファインチューニングで安全性配置を達成する AltTrain を提案。
Ali Al-Kaswan 氏らが 2026 年 4 月 21 日に arXiv へ投稿。仮想化ネットワーク上の現実的 Capture-The-Flag 課題で LLM エージェントを評価する DeepRed ベンチマークを提案。最高性能モデルでもチェックポイント完了率は平均 35% に留まると報告。
Xiaolei Ren 氏が 2026 年 4 月 18 日に arXiv へ投稿(4 月 21 日改訂)。攻撃なしの通常生成タスクで「機能正解だが脆弱なコード」が現れる頻度を測定する False Security Confidence (FSC) 概念を提案。3 エコシステム視点で測定境界を整理。
Wenshuo Wang 氏が 2026 年 4 月 17 日に arXiv へ投稿した位置論文。LLM の推論を「表面的 chain-of-thought (CoT) の忠実性」ではなく「潜在状態軌跡の形成」として研究すべきと主張し、3 仮説を比較検討した上で潜在状態仮説を支持する証拠を整理。
Lingfeng Zhou 氏らが 2026 年 4 月 11 日に arXiv へ投稿。生成トークン・ローカルテスト・経過時間が固定予算から差引される USACOArena を発表。最先端エージェント群でも精度とコストの最適バランスを取れず、経路依存的・発散的挙動を示すと報告。
Worasait Suwannik 氏が 2026 年 4 月 11 日に arXiv へ投稿。公開アルゴリズム実装を 2 段階で改善するパイプラインを提案。Claude Code が再現と改善を担当し、11 実験すべてで改善を達成(各 1 営業日以内)。
Rudra Jadhav 氏らが 2026 年 4 月 8 日に arXiv へ投稿した論文。756 職業・17,998 タスクを対象に LLM の職務影響を測定する Skill Automation Feasibility Index (SAFI) を提案し、AI 相互作用の 78.7% が「自動化ではなく拡張」であると報告。
XY.AI Labs / スタンフォード(Stanford) / Cornell / Brigham and Women's Hospital 共同のチームが 2026 年 4 月 6 日に arXiv へ投稿。LLM がコンパイル段階で実行可能コードを生成し、その後のワークフローはモデル呼び出しなしに決定的に実行する Compiled AI を提案。
Dat Tran 氏と Douwe Kiela 氏が 2026 年 4 月 2 日に arXiv へ投稿。マルチエージェント LLM システム(MAS)の優位性は計算量増加で説明できると主張し、同じ思考トークン予算下では単一エージェント(SAS)が同等以上の性能を示すことを 3 モデルで実証。
目的に合った入口からお気軽にどうぞ。すべてカジュアル相談OKです。