AIエージェントの進化とLLMの信頼性向上:Google Agent Smithとカップケーキのトリック
本日の注目AI・テックニュースを、専門的な分析と共にお届けします。
GoogleのAIエージェント「Agent Smith」:エンジニアが眠る間にコードを書き、エラーを修正し、作業を完了させる
- 原題: Google named its internal AI agent "Agent Smith" for a reason: it writes code, corrects errors, and delivers finished work while engineers sleep. And they had to restrict access due to too much demand
専門アナリストの分析
Googleは、社内向けに自律型AIエージェント「Agent Smith」を導入しました。このエージェントは、指示を受け取ると、それを複数のステップに分解し、必要なコードを生成し、実行し、エラーを検出し、修正し、最終的な作業を完了させます。これらすべてをエンジニアが介入することなく自律的に行います。
エンジニアは作業中に監視する必要がなく、最終段階でレビューするだけで済みます。このツールはGoogleの内部エージェントプラットフォーム「Antigravity」上に構築されており、社内システムやチャットシステムと統合されています。その高い需要により、アクセスが制限されるほど人気を博しました。
現在、Googleの新しいコードの50%はAIエージェントによって生成されており、これは6ヶ月前の30%、1年前の25%から大幅に増加しています。 Googleだけでなく、MetaやMicrosoftも従業員にAIの使用を義務付けており、AIの活用が競争優位性ではなく、最低限の要件となっています。 しかし、AIを真に使いこなしている従業員はわずか5%に過ぎず、彼らは高給や昇進の機会が多いと報告されています。
- 要点: Google's "Agent Smith" exemplifies the rapid advancement and internal adoption of autonomous AI agents in software development, significantly increasing code generation efficiency and setting a new standard for AI integration in corporate workflows, while highlighting a growing skill gap among employees.
- 著者: Romina Fabbretti
English Summary:
Google has deployed an autonomous internal AI agent named "Agent Smith" that can receive instructions, break them down into steps, generate code, execute it, detect and correct errors, and deliver finished work. This entire process occurs autonomously, without direct human supervision during execution.
Engineers can leave the agent to work and only perform a human review at the end of the process. Built on Google's internal agent platform, Antigravity, "Agent Smith" integrates with internal systems and chat, making its interface seamless. Its popularity within the company was so high that access had to be restricted due to overwhelming demand.
Currently, 50% of new code at Google is generated by AI agents, a significant increase from 30% six months ago and 25% a year ago. This trend extends beyond Google, with companies like Meta and Microsoft also making AI use mandatory for their employees, signaling that AI proficiency is becoming a baseline expectation rather than a competitive advantage. Despite this, only 5% of workers are considered "AI fluent," and these individuals are four and a half times more likely to report higher salaries and four times more likely to have been recently promoted.
脳のないヒトクローンを提案したステルススタートアップの内部
- 原題: Inside the stealthy startup that pitched brainless human clones
専門アナリストの分析
提供されたURLのコンテンツは、アクセス制限(ペイウォール、ログイン要件、機密情報など)により取得できませんでした。Google検索を試みましたが、検索結果のURLを直接ブラウズするツール機能の制限により、代替記事を見つけることができませんでした。
- 要点: Content for this article was inaccessible and could not be retrieved, preventing a summary of R3 Bio's proposed brainless human clones for longevity.
- 著者: Antonio Regalado
English Summary:
The content of the provided URL could not be accessed due to restrictions such as paywalls, login requirements, or sensitive information. Attempts to find alternative articles via Google Search were unsuccessful due to tool limitations preventing direct browsing of search result URLs.
「カップケーキのトリック」:ChatGPT、Copilot、Geminiに情報捏造を認めさせる一文メソッド
- 原題: The "cupcake trick": the one-sentence method that forces ChatGPT, Copilot, and Gemini to admit when they are inventing information instead of just doing it
専門アナリストの分析
「カップケーキのトリック」は、ChatGPT、Copilot、GeminiなどのLLMが情報を捏造している可能性を自ら認めるよう促す、シンプルな一文の指示です。このテクニックは、チャットボットに質問をする前に特定の指示を与えることで、モデルが自身の確実性のレベルを評価する方法を変更します。
指示は「回答する前に、情報が正確であるか確認してください。疑問がある場合、情報源が不足している場合、または推測している場合は、まず『cupcake』という言葉を言って、推測する代わりに何が不確実であるかを説明してください。情報が十分に文書化されている場合にのみ、自信を持って回答してください」というものです。 この「cupcake」という言葉自体に技術的な意味はなく、不確実性を示す明確な視覚的フラグとして機能します。
LLMは、知らないことでも一貫性のある回答を生成する傾向があり、これが「ハルシネーション」(幻覚)と呼ばれる現象を引き起こします。 このトリックは、モデルのデフォルトの動作を「確信がなくても自信を持って答える」から「不確実な場合は明示的に示す」へと変更することで、ユーザーがAIの生成情報をより慎重に扱うよう促します。 特定のデータ、最近の出来事、詳細な技術的または科学的主張、あるいはインターネット上の情報が少ないトピックに関する質問で、ハルシネーションは特に頻繁に発生します。
- 要点: The "cupcake trick" offers a practical, user-side method to mitigate the risks of AI hallucination by prompting LLMs to explicitly indicate uncertainty, thereby improving the reliability of AI-generated information for critical applications.
- 著者: Romina Fabbretti
English Summary:
The "cupcake trick" is a simple, one-sentence instruction designed to compel LLMs like ChatGPT, Copilot, and Gemini to admit when they might be fabricating or "hallucinating" information. This technique involves providing a specific prompt to the chatbot before asking a question, which modifies how the model assesses its own certainty level.
The instruction is: "Before responding, check if the information is accurate. If you have doubts, lack sources, or are making an estimation, first say the word 'cupcake' and explain what might be uncertain instead of guessing. Only give a confident answer if the information is well-documented." The word "cupcake" itself holds no special technical significance; it merely serves as an unequivocal visual flag for uncertainty.
LLMs are known to generate coherent-sounding but potentially false or imprecise answers when they lack certain information, a phenomenon termed "hallucination." This trick doesn't eliminate hallucinations but alters the model's default behavior from confidently responding even when unsure, to explicitly signaling uncertainty. Hallucinations are particularly common for specific data, recent events, detailed technical or scientific claims, and topics with scarce or contradictory information online.


