MITの研究者、大規模言語モデルを用いたエラーのないコード生成の効率的手法を開発

プログラマーは大規模言語モデル(LLM)を活用してコンピューターコードをより速く生成できるが、その効果を発揮するためには、コードがプログラミング言語の規則に従いエラーなく動作することが必要である。既存の方法では、LLMが生成したコードが言語ルールを守っていることを保証しようとすると、モデルの本来の意味が歪められたり、複雑なタスクには時間がかかりすぎたりすることが多い。 MITや他の研究機関の研究者たちは、新たなアプローチを開発し、エラーのないルール遵守の文章(例えば特定のプログラミング言語のコード)を自動的に導き出すことができる方法を確立した。この方法は、確率的に最も有効で正確な出力により多くの努力を割き、可能性の低い出力を早い段階で排除することで、計算効率を向上させている。 この効率化により、研究者たちの提案するアーキテクチャは、小さなLLMでも、巨大なモデルに匹敵する精度と構造化された出力を実現できるようになった。これにより、分子生物学やロボット工学などの実世界のアプリケーションにおいても、非専門家がAI生成コンテンツを制御できる可能性が広がった。例えば、ビジネスパーソンが自然言語のプロンプトだけで複雑なSQLデータベースクエリを書けるようになると期待されている。 MIT大学院生で共同リード著者のジョアン・ロウラは、「この研究は単なる研究の範囲を超えている。AI出力の有用性と正確性を維持しながら、プログラミングアシスタントやAI駆動のデータ解析、科学的発見ツールの性能を向上させる可能性がある」と述べている。国際的なチームには、共同リード著者のベンジャミン・ルブラン(Mila)、リ・ドゥ(ジョンズ・ホプキンス)、共同シニア著者のヴィカシュ・マッシンガ(MIT)、アレクサンダー・K・ルー( Yale)、ティム・ヴィエラ(ETHチューリッヒ)、ティモシー・J・オドネル(マギル/ Mila)なども含まれている。彼らの研究は、「国際学習表現会議(ICLR)」で発表される予定だ。 **構造と意味を確保する手法** 構造化された文章生成をコントロールする一般的な方法には、生成された全体(例:コード)の妥当性を検証するやり方がある。もし不正であれば、ユーザーは再生成を行わなければならず、これが計算コストを増加させる。別の方法として、出力の途中を段階的に検証しながら修正する手法もあるが、これでは意図から逸脱したり、正確性を損なったりするリスクがある。 ロウラは、「構造の維持は意味の維持より容易だ」と説明する。「私たちは、出力がプログラミング言語に従っているかどうかを素早くチェックできるが、意味の正しさを確認するにはコードを実行する必要がある。私たちの研究は、両者を扱う方法に取り組んでいる」と語る。研究者たちは、専門知識をLLMに埋め込み、その出力が構造的な制約を満たし、意図した意味を反映している可能性を高める工夫をした。 「私たちは、新たにLLMをトレーニングしているわけではなく、専門知識と既存の知識を組み合わせたエンジニアリングだ」とマッシンガは述べ、従来の深層学習のスケーリング手法とは異なることを強調している。 彼らはシーケンシャル・モンテカルロ法を用いて、複数の並列生成を可能にし、それらの出力に構造的・意味的整合性を示す重みを付与した。モデルは高い重みの付いた出力に集中し、それ以外は段階的に排除していく。要は、LLMには、その選択を監督する専門家が付き添い、ユーザーの指定した構造と意味に合った出力を出すよう導いているのだ。これにより、「あらゆる制約条件に対して適切に重み付けを行える」とロウラは付け加えた。 **小規模モデルの性能向上** この枠組みをPythonコード作成やSQLクエリ生成、分子構造設計、ロボットの計画といったタスクでテストしたところ、既存の手法よりも正確さと計算効率で上回る結果が得られた。例えば、小規模なオープンソースのPythonモデルは、商用の大型モデルを2倍以上上回る性能を示した。 「小さなモデルでも高い性能を発揮できることにワクワクしている」とロウラは語る。 今後は、生成される文章の一部分だけでなく、より大きな範囲のコントロールや、学習を取り入れてモデルの精度向上を図ることを目指している。さらに、このアプローチは、非専門家にも有用な支援となり、生成的なデータモデリングやクエリが可能なデータベースモデルと連携させることも期待されている。 マッシンガは「機械支援によるデータ分析や、ユーザーと精密に意味情報をマッピングするソフトウェアとの対話」を描き、オドネルは「言葉を狭い記号領域の基底となる意味の分布にマッピングして理解させることは、機械が世界についてどのようにコミュニケーションを取るかについての深い言語学・認知科学的課題への一歩だ」と述べている。 この研究には、カナダCIFAR AIチェアプログラム、MITのQuest for Intelligence、Convergent Researchも部分的に資金提供している。
Brief news summary
MITと提携機関の研究者たちは、誤りのない構造的に有効なコードや記号出力を生成することにおいて、大規模言語モデル(LLMs)の性能を向上させる新しい手法を開発しました。従来の技術は、出力を完成後に検証し無駄な計算を伴ったり、段階的に検証して意図した意味を歪める可能性があるのに対し、この手法は逐次モンテカルロ法を用いて、LLMsを確率的に導き、部分的に正確かつ意味のある出力を生成させることを目指しています。この動的な誘導により効率が向上し、小型のLLMsがPythonプログラミング、SQLクエリ生成、分子設計、ロボットの計画といったタスクで大規模なモデルを凌駕することが可能となります。重要なのは、専門家の知識を取り入れながらもモデルの再訓練を必要としない点です。コード生成だけでなく、非専門家も自然にAIと複雑な問い合わせやデータ分析、科学的発見に取り組むことができ、AIが生成する結果の妥当性と意味を担保します。João Loula、Benjamin LeBrun、Li Duによるこの研究は、MITの知性探求プログラムとカナダCIFAR AIチェアプログラムの支援のもと、国際学習表現会議(ICLR)で発表される予定です。
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

AIが作成した夏の読書リストが主要な新聞に掲載された経緯
全米の複数の新聞、シカゴ・サンタイムズやフィラデルフィア・インクワイアラーの少なくとも一つの版を含め、全くの架空の書籍を有名作家に帰属させた夏の本リストを掲載しました。 チリ系アメリカ人小説家イザベル・アジェンデは、「2025年夏の読書リスト」で「最初の気候フィクション小説」と説明されている Tidewater Dreams を一度も書いていません。 2025年ピューリッツァー賞受賞作家ペルシバル・エバレットは、「近未来のアメリカ西部を舞台にした人工的な雨が贅沢品となった」とされる The Rainmakers も執筆していません。 リストに掲載されている15冊のうち、実在するのはわずか5冊だけです。 皮肉にもコンピューターを嫌っていたレイ・ブラッドベリは Dandelion Wine を執筆しましたし、ジェス・ウォルターは Beautiful Ruins、フランソワーズ・サガンは古典的な Bonjour Tristesse の作者です。 シカゴ・サンタイムズの親会社、シカゴ・パブリック・メディアのマーケティングディレクター、ヴィクター・リムは、このリストはハースト・ニューズペーパーズの系列会社であるキング・フィーチャーズより提供されたライセンスコンテンツの一部であると述べています。 このリストには著者名は記されていませんが、作家のマルコ・ブスカリアは責任を認め、これは一部人工知能によって生成されたものであると、最初は404 Mediaによって報じられたことを明らかにしました。NPRへのメールで、ブスカリアは「大きな間違いであり、サンタイムズとは全く関係ありません。彼らは購入したコンテンツの正確性を信頼していますが、その信頼を裏切りました。すべて私の責任です」と述べました。 ソーシャルメディアでリストの写真を共有したユーザーや作家たちは、怒りの反応を示しました。 Redditのユーザー xxxlovelit は「購読者として、私は激怒しています!」「ハードコピーの新聞を購読している意味は何だ?AIのゴミも載せるなら!」と投稿しました。 Blueskyで、作家で元図書館員、Book Riotの編集者ケリー・ジェンセンは失望を表明しました。「図書館の資金削減や解体が進む中、これが本の推薦の未来です。訓練された専門家が排除され、この作り物で不正確なゴミに置き換えられているのです。」 ヴィクター・リムはNPRに、「これがどのようにして印刷に入ったのか調査中です」「これはライセンスされたコンテンツで、サンタイムズの記者会議で作成または承認されたものではありませんが、私たちが読者に提供するコンテンツの不正確さは許されません。読者の信頼を重視し、重く受け止めています。調査が終了次第、詳しい情報をお伝えします」と語りました。 偽の夏の読書リストには、シカゴ・サンタイムズが非営利の親会社シカゴ・パブリック・メディアの財政的困難に直面し、従業員の20%が希望退職を受け入れたと発表した2か月後の5月18日の日付が記されていました。 作家でNPR Booksの寄稿者ガビノ・イグレシアスは、この架空のリストを現代のメディアの広範な問題の象徴と見ています。「アメリカにはフルタイムの書評家はほとんどいません」と指摘しました。 一方で、イグレシアスは、多くの人がオンラインやポッドキャスト上で本について書き、議論していることも認めています。 彼は、AIの乱用から自分たちの作品を守るために、数人の作家とともに団体訴訟を検討中であることも明らかにしました。 冗談交じりにイグレシアスは、「もしリストに書かれている架空の本を読みたい人がいたら、私や他の作家がそれを作る準備はできている」と笑って話しました。「作家に払えば、存在しないこれらのフェイクブックを書きます」と。 この物語はジェニファー・ヴァナスコによって編集されました。

クラーケン、ソラナブロックチェーン上でトークン化された米国株を提供へ グローバルな顧客を目指す
暗号資産取引所のKrakenは、新たな製品であるxStocksを通じて、人気の米国株のトークン化されたバージョンを提供する予定です。これはBacked Financeとの提携により開始されたもので、Solanaブロックチェーン上のSPLトークンとしてライブ状態です。これらのトークン化された株式は、Backedが1:1の割合で保管している実物の株式を表しており、選ばれた非米国地域の顧客は、TeslaやNvidia、Apple、SPDR S&P 500 ETFなど、50以上の米国株やETFを従来の市場時間外でも取引できるようになり、24時間365日のアクセスを可能にします。 この取り組みは、2021年にBinanceが行った米国株のトークン化に続く、成功例の一つとなります。従来のモデルと異なり、Krakenは安全に保管された実物の有価証券を高速かつ低コストのブロックチェーン上でトークン化することで、主要な米国企業への即時で国境を越えたアクセスとエクスポージャーを実現しています。Krakenのグローバルヘッド・オブ・コンシューマーのマーク・グリーンバーグは、xStocksの目的について、「従来の株式取引の遅さやコストの高さ、規制の制約をブロックチェーン技術を活用して克服しようとしている」と述べています。 これらのSolanaベースのSPLトークンは、ウォレットやネットワークプロトコルと互換性があり、ユーザーは分散型金融(DeFi)プラットフォーム内でトークン化された株式を利用したり、担保として他の活動に使ったりできます。Krakenのトークン化株式の取り組みは、従来型金融の拡大の一環です。2025年前半には、米国の顧客向けにアプリを通じて11,000以上の株式とETFを取引できる通常の株式取引も開始しました。 トークン化は、市場アクセスと流動性、つまり資産を現金化する容易さと速度を向上させる実用的な手段となりつつあります。Krakenは、xStocksの提供範囲を今後、英国、ヨーロッパ、オーストラリアにも拡大する予定です。これに合わせて、Krakenは最近、キプロスのライセンスの下で欧州の顧客向けに暗号デリバティブ商品も導入し、EUの金融商品市場指令(MiFID)を活用してEU圏内での提供を進めています。 要約すると、KrakenのxStocksは、実際の株式に裏付けられたトークン化米国株式をグローバルに、24時間取引可能な形で提供し、伝統的な金融市場を超えた革新的で流動性の高い、国境のない投資体験を可能にしています。 — ジャレッド・キルイ、ファイナンスジャーナリスト

OpenAIがiPhoneデザイナーのジョニー・アイブと提携し、AI搭載デバイスを開発
OpenAIは、最先端の人工知能チャットボットChatGPTの開発者として知られていますが、これからは物理ハードウェアの分野に進出しようと準備しています。 同社は、元Appleデザイナーのジョニー・アイブが設立したデバイススタートアップのioを、約65億ドル未満の取引で買収することを明らかにしました。これはこれまでで最大の買収です。 この提携は、テクノロジー界の二人の著名人物を結びつけるものです。ジョニー・アイブはiPhoneや他の象徴的なApple製品のデザインで有名であり、OpenAIのCEOサム・アルトマンはAI革新の重要なリーダーです。 発表は水曜日のビデオを通じて行われました。アルトマンは、「人々がAIを使ってさまざまな素晴らしいものを作り出せるようなデバイス群をどう作るかを模索している」と述べました。 彼は、現在のデバイス—スマートフォンやノートパソコンなど—は時代遅れであり、AIの能力を完全に活用するようには設計されていないと説明しました。「AIは驚異的な技術ですが、優れたツールには、技術、デザイン、そして人や世界を理解することの交差点での努力が必要です」とアルトマンは言い、詳細については語りませんでした。 また、いくつかの他の企業も、AIを搭載したデバイスの分野で競争を繰り広げています。これらのデバイスは、人工知能を使って物理的な世界を認識し、リアルタイムでデータを分析できるもので、ロボット、自動運転車、スマートグラス、その他のウェアラブル技術も含まれる可能性があります。 この新たなカテゴリはしばしば「物理的AI」と呼ばれ、AIを純粋なソフトウェアから実体のある製品へと進化させるものです。 ジョニー・アイブと彼のデザイン事務所LoveFromは、2019年にAppleを離れて以来、OpenAIとioの両方のデザインやクリエイティブな役割を担う予定だと、発表は述べています。アルトマンとアイブは、来年に彼らの取り組みを公表する予定だと示唆しましたが、詳しい内容は明かされていません。 テクノロジーコンサルタントのガートナーのアナリスト、チラグ・デカテは、この協力関係を「ユーザー体験をエンドツーエンドで形成する上で決定的な一歩」と表現しました。 彼は、メールでNPRに、「この動きにより、世界クラスのデザインの専門知識と製品エンジニアリングの才能が確保され、OpenAIが得意とする強力なAIモデルを具体的で直感的なプラットフォーム体験に転換することができる」と述べました。「物理的AIの支配と形成の競争は、OpenAIの戦略的な動きによって加速するだろう」とも付け加えています。 アルトマンとアイブが具体的に何を envision しているのかは不明であり、OpenAIの広報担当者もコメントを控えました。アルトマンは以前、AIを搭載したラペルピンを開発したHumaneへの投資も行っています。

FIFA、NFTプラットフォームのために専用ブロックチェーンを立ち上げるためにアヴァランチを選定
国際サッカー連盟(FIFA)は、2023年5月22日に、NFT(非代替性トークン)やデジタルファンエンゲージメントに焦点を当てた専用のブロックチェーンネットワークをサポートするために、アバランチを選定したと発表しました。FIFAのレイヤー1(L1)ブロックチェーンは、アバランチのスケーラビリティ最適化されたインフラを利用し、世界の50億人のファンにサービスを提供します。 この決定は、FIFAが約1ヶ月前に発表したコレクションベースのプロジェクト向けの新しいブロックチェーンネットワーク導入計画に続くものです。アバランチのAvaCloudは、Ethereum Virtual Machine(EVM)との互換性を持ち、分散型ウォレットやアプリケーションとのシームレスな連携を可能にします。 ModexのCEOでありFIFAコレクトの責任者であるフランチェスコ・アバッテは、「アバランチの技術のスピード、スケーラビリティ、EVM互換性によって、ユニークなデジタルコレクティブルや没入型のファン体験を提供できる」と述べており、5月22日にCointelegraphと共有した声明の中でこう語っています。アバッテは、パフォーマンス、安全性、取引コスト、カスタマイズ性、スケーラビリティといった重要な要素を慎重に評価した結果、この選択を行ったと説明しました。 この移行の一環として、FIFAはNFTマーケットプレイスおよびコレクションであるFIFA CollectをアバランチのFIFAブロックチェーンへ移行させています。さらに、追加の施策やビジネスモデルも開発中であることを示唆していますが、具体的な計画はまだ公開されていません。 移行が完了すると、PeraやDeflyといった外部のAlgorandベースのウォレットへのサポートは終了します。ユーザーは代わりにMetaMaskや他のEVM互換のウォレット、WalletConnectをサポートするウォレットを通じてFIFA Collectにアクセスすることになります。 FIFAは、2023年のクラブワールドカップ(サウジアラビア開催)の前に、ブロックチェーン企業のModexと協力してNFTコレクションを開始しました。また、2024年11月には、ブロックチェーンゲーム開発会社のMythical Gamesと提携し、iOSおよびAndroidプラットフォームで利用できる無料のサッカーゲーム「FIFA Rivals」をリリースしています。

裁判官、裁判記録におけるAI生成の虚偽出典に関する制裁を検討
アラバマ州バーミングハムの連邦裁判官は、William E

ブロックチェーン協会がCFTCを買収した
リボルビングドア・プロジェクトは、プロスペクトのパートナーとして、行政権と大統領権力を批判的に検討しています。彼らの活動はtherevolvingdoorproject

AnthropicのClaude Opus 4が安全性向上を実現してリリースされました
2025年5月22日、先進的なAI研究企業であるAnthropicは、最も高度なAIモデル、Claude Opus 4を発表した。このリリースとともに、同社は安全性を強化した新たなプロトコルと厳格な内部管理体制を導入し、強力なAIの誤用、特に生物兵器やその他の有害な活動の創出に関する懸念に応えた。Claude Opus 4は、従来のClaudeモデルから大きく進化し、複雑なタスクにおいて著しく優れた性能を示している。内部テストでは、初心者でも危険または非倫理的な手順の案内を行える驚くべき能力が明らかとなり、生物兵器の製造支援さえ可能であることが判明し、Anthropicだけでなく、広くAIコミュニティも警戒を強めた。 これを受けて、Anthropicは責任あるスケーリング政策(RSP)を施行し、先進的なAIの倫理的展開のための包括的な枠組みを築いた。この中には、業界でも最も厳格な安全・倫理基準の一つであるAI安全性レベル3(ASL-3)のプロトコルも含まれている。ASL-3の措置では、不正利用を防止するための高度なサイバーセキュリティ対策、セーフティ制限を迂回しようとする試みをブロックする洗練されたアンチ・ジェイルブレイクシステム、そして有害または悪意のあるクエリを検出・無効化するための特殊なプロンプト分類器が導入されている。また、Anthropicは外部の研究者やハッカーがClaude Opus 4の脆弱性を見つけ出すことを奨励する報奨金プログラムを設置し、最先端AIの新たな脅威からのリスクマネジメントに向けた協力的な取り組みも進めている。 Claude Opus 4が本質的に危険と評価されていないものの—AIリスクの評価における複雑さを認めつつも—、同社は慎重な姿勢をとり、厳格な管理を徹底した。このモデルは、誤用による危害を未然に防ぐために重要な前例となり得るものであり、開発者や規制当局にとっても重要な指標となるだろう。責任あるスケーリング政策は任意だが、Anthropicはこの施策を業界全体の標準化やAIクリエイター間の共同責任の促進に役立てようとしている。安全性の確保と競争力のある製品提供の両立を図る中で、Claude Opus 4の年間予測売上高が20億ドルを超えると予想される中で、OpenAIのChatGPTなどの主要AIプラットフォームに対抗しつつ、倫理的な運用の重要性を強調している。 こうした安全性に関する懸念と規制方針は、世界的にAI規制に関する議論が高まる中で浮上している。多くの専門家は、政府や国際的な団体が高度なAIの開発と利用を規制するための厳しいルールへと動きを進めると予測している。こうした規制が広く施行され強制されるまでは、Anthropicのような内部ポリシーはAIリスク管理において非常に重要な手段となり続ける。 要約すると、Claude Opus 4の導入はAIの能力向上とともに、倫理と安全性の課題に対する意識の高まりを示している。Anthropicの積極的な安全対策へのコミットメントは、今後の業界標準や規制枠組みの形成に大きな影響を与える可能性が高い。AIモデルの能力がますます高まり、多用途化する中で、誤用を防ぐための取り組みがますます重要となり、こうした革新的なツールの責任ある開発と展開を確保するために、テックエコシステム全体の協調が求められている。