AI研究の最新動向:脳との整合性、生命に着想を得た知能、セキュリティリスク
本日の注目AI・テックニュースを、専門的な分析と共にお届けします。
トレーニング駆動型表現幾何学モジュール化は言語モデルにおける脳との整合性を予測する
- 原題: Training-Driven Representational Geometry Modularization Predicts Brain Alignment in Language Models
専門アナリストの分析
本研究では、大規模言語モデル(LLM)が人間の言語の神経表現および計算とどのように整合するかを、表現幾何学をメカニズム的なレンズとして用いて調査しました。
Pythia(70M-1B)のトレーニング中にエントロピー、曲率、およびfMRIエンコーディングスコアを追跡した結果、層が安定した低複雑度クラスターと高複雑度クラスターに自己組織化する幾何学的モジュール化が特定されました。
低複雑度モジュールは、エントロピーと曲率の低下を特徴とし、人間の言語ネットワーク活動をより一貫して予測しました。この整合性は、時間領域(前側頭葉、後側頭葉)では急速かつ安定して、前頭領域(IFG、IFGorb)では遅延的かつ動的に進行しました。
特に、モデルのスケールが大きくなるにつれて、曲率の低下は、トレーニングの進捗を制御した後でも、モデルと脳の整合性を予測する強力な指標であり続けました。これらの結果は、トレーニングによって駆動される幾何学的再編成が、時間的-前頭機能的専門化と結びついていることを示唆しており、表現の平滑化が神経のような言語処理を促進する可能性を示唆しています。
- 要点: Reduced curvature in LLM layers, driven by training, predicts better alignment with human brain activity, suggesting a pathway for more biologically plausible language processing.
- 著者: Yixuan Liu, Zhiyuan Ma, Likai Tang, Runmin Gan, Xinche Zhang, Jinhao Li, Chao Xie, Sen Song
English Summary:
This study investigated how Large Language Models (LLMs) align with the neural representation and computation of human language, using representational geometry as a mechanistic lens.
By tracking entropy, curvature, and fMRI encoding scores throughout the training of Pythia (70M-1B), a geometric modularization was identified where layers self-organize into stable low- and high-complexity clusters.
The low-complexity module, characterized by reduced entropy and curvature, consistently better predicted human language network activity. This alignment followed heterogeneous spatial-temporal trajectories: rapid and stable in temporal regions (AntTemp, PostTemp), but delayed and dynamic in frontal areas (IFG, IFGorb).
Crucially, reduced curvature remained a robust predictor of model-brain alignment even after controlling for training progress, an effect that strengthened with model scale. These results link training-driven geometric reorganization to temporal-frontal functional specialization, suggesting that representational smoothing facilitates neural-like linguistic processing.
生命に着想を得た機械知能のブートストラップ:化学から認知と創造性への生物学的経路
- 原題: Bootstrapping Life-Inspired Machine Intelligence: The Biological Route from Chemistry to Cognition and Creativity
専門アナリストの分析
本論文は、現在のAI研究における主要な課題である高度な機械知能の達成に向けて、生物学的システムが持つ適応的で目標指向的な行動戦略に着目した、真に生命に着想を得たアプローチを提唱しています。
生物学的進化は、頑健性、自律性、そして多様なスケールでのオープンエンドな問題解決を可能にする知能の「レシピ」を発見したと論じられています。このレシピは、多スケールの自律性、能動的コンポーネントの自己集合による成長、能力の継続的な再構築、物理的および身体的制約の活用、そして自己組織化と目標からのトップダウン制御を可能にする広範なシグナル伝達といった5つの設計原則に基づいています。
これらの原則は、現在のAIパラダイムとは対照的であり、将来の自律的で、身体性を持ち、回復力のある人工システムに統合するための道筋を示しています。知能は柔軟な問題解決として捉えられ、「認知ライトコーン」という概念を用いて、生命システムと機械における知能の連続体が特徴づけられます。
- 要点: A life-inspired approach to AI, focusing on biological principles like multiscale autonomy and self-assemblage, offers a promising alternative to current AI paradigms for achieving robust and creative machine intelligence.
- 著者: Giovanni Pezzulo, Michael Levin
English Summary:
This paper advocates for a genuinely life-inspired approach to machine intelligence, drawing on the adaptive and goal-directed behavioral strategies found in biological systems, which remain a central challenge in current AI research.
It is argued that biological evolution has discovered a scalable recipe for intelligence that enables robustness, autonomy, and open-ended problem-solving across diverse scales. This recipe is based on five design principles: multiscale autonomy, growth through self-assemblage of active components, continuous reconstruction of capabilities, exploitation of physical and embodied constraints, and pervasive signaling enabling self-organization and top-down control from goals.
These principles contrast with current AI paradigms and outline pathways for integrating them into future autonomous, embodied, and resilient artificial systems. Intelligence is framed as flexible problem-solving, and the concept of "cognitive light cones" is used to characterize the continuum of intelligence in living systems and machines.
OpenClawのAI「スキル」拡張機能はセキュリティの悪夢
- 原題: OpenClaw’s AI ‘skill’ extensions are a security nightmare
専門アナリストの分析
オープンソースのAIエージェントプラットフォームであるOpenClaw(旧称Clawdbot、Moltbot)は、その利便性にもかかわらず、深刻なセキュリティリスクを抱えています。インターネットに公開されている135,000以上のOpenClawインスタンスが発見されており、その多くがデフォルト設定のまま、認証なしでアクセス可能であることが判明しました。
OpenClawの「スキルストア」(ClawHub)には、悪意のある拡張機能が多数存在し、APIキー、個人情報、クレジットカード情報などの機密データを窃取する可能性があります。これまでに、OpenClawに関連する複数の脆弱性(CVE)が報告されており、一部のスキルは数千回ダウンロードされています。
OpenClawは、シェルコマンドの実行、ファイルの読み書き、スクリプトの実行など、ユーザーのシステムに対して広範な権限を持つことができます。このため、設定ミスや悪意のあるスキルが原因で、深刻なセキュリティインシデントにつながる可能性があります。この問題に対処するため、OpenClawはVirusTotalと提携し、スキルマーケットプレイスでアップロードされる拡張機能のスキャンを強化しています。
- 要点: Open-source AI agent platforms like OpenClaw, while powerful, pose significant security risks due to widespread vulnerabilities, default insecure configurations, and malicious extensions in their marketplaces, necessitating robust security measures and user vigilance.
- 著者: Emma Roth / Editorial Staff
English Summary:
The open-source AI agent platform OpenClaw (formerly Clawdbot and Moltbot) presents significant security risks despite its convenience. Over 135,000 internet-exposed OpenClaw instances have been discovered, many accessible without authentication due to default settings.
The OpenClaw "skill store" (ClawHub) is riddled with malicious extensions capable of stealing sensitive data such as API keys, personal information, and credit card details. Multiple vulnerabilities (CVEs) related to OpenClaw have been reported, with some malicious skills downloaded thousands of times.
OpenClaw can execute shell commands, read/write files, and run scripts, granting it extensive privileges on user systems. This capability makes it susceptible to severe security incidents if misconfigured or if malicious skills are installed. In response, OpenClaw has partnered with VirusTotal to enhance the scanning of extensions uploaded to its skill marketplace.


