Blocksterの創業者兼クリエイティブディレクター、Web3ストーリーテリングと戦略を推進

ブロクスターの創設者、編集長、クリエイティブディレクターとして、魅力的なストーリーの企画・制作を主導し、主要なWeb3ブランドと提携し、先進的な製品戦略を導いています。
Brief news summary
私はBlocksterの創設者、編集長、クリエイティブディレクターとして、私たちの読者に響く魅力的で引きつけるストーリーの展開を主導しています。私の役割は、主要なWeb3ブランドと密接に連携し、コンテンツが業界の最前線に立ち、最新のトレンドや革新を反映していることを確保することです。さらに、私たちの製品の戦略的方向性を推進し、革新と創造性に焦点を当てて、ユニークな体験とソリューションを提供しています。この多面的なリーダーシップを通じて、BlocksterをWeb3空間の一流プラットフォームに成長させ、ストーリーテリング、コラボレーション、最先端技術を融合させて、活気に満ちた影響力のあるコミュニティを築いていきたいと考えています。
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

暗号通貨の世界では、それはAIとブロックチェーンのタンゴです。
概要 人工知能(AI)ユーティリティトークンは、単なるデジタル通貨以上の存在です。これは、現実のアプリケーションに基づく自律型AIエージェントです。ブロックチェーン技術に基づくAI通貨が投資家の関心を集める一方で、その自律性に伴うリスクも存在し、ヒマンシー・ローチャブが指摘しています。 ソフトウェア開発者や技術に詳しい投資家は、AIとブロックチェーンが分散型未来を築く役割に期待を寄せています。Near Protocol、ICP、The Graph、SingularityNET、Renderといったプロジェクトは、インドの取引所で月間取引高が800万〜1000万ドルに達しています。世界的には、AIトークンの時価総額は27億ドルからほぼ300億ドルへと急増しました。 従来のデジタル通貨と異なり、AIトークンは実用的な用途に結びついた自律型エージェントとして機能します。インドの開発者はこれらのトークンの取引だけでなく、オープンソースプロジェクトに参加したり、ハッカソンで競争したり、Ocean Protocolなどのプラットフォームを通じて予測データセットを共有したりと、積極的に開発に関わっています。 AIトークンは、価値保存と実用性を兼ね備えています。従来の暗号通貨は、売買による利益を得るためのデジタルマネーとして機能しますが、AIトークンは取引や積極的な貢献を通じて収益を生み出します。例えば、Renderは、使われていないGPUをレンタルしてトークンを稼ぐことを可能にし、Fetchは、開発者がAIエージェントを構築・展開できるマーケットプレイスを提供し、利用時に収入を得られる仕組みを作っています。 インド最大の暗号通貨取引所CoinDCXの共同創設者、スミット・グプタは、ミームコインなどの一過性のトレンドと異なり、AIトークンは自動化、予測分析、詐欺検出といった具体的な応用によって支えられていると述べています。この自律的な取引実行やプロセス最適化により、特に分散型金融(DeFi)分野で革新的な力となっています。 AIトークンの盛り上がりは、主要投資家たちによって裏付けられています。グレースケールは、暗号資産の27%を分散型AIプロジェクトのBittensor Protocol(TAO)に投資し、ブラックロックやフィデリティもAI関連の暗号資産投資を増強しています。PitchBookの報告によると、2024年の分散型AIスタートアップの調達額は4億3600万ドルに達し、これは2023年と比べて約200%増です。投資者にはa16z、バイナンス・ラボ、ピーター・ティールのFounders Fund、リード・ホフマンらが名を連ねています。 インドは、強固なIT基盤に根ざした豊富なエンジニアリング人材のおかげで、AIとWeb3の分野で重要な役割を果たしています。BITKRAFT Venturesのアヌジ・タンドンは、インドの重要性を強調し、Hashed Emergentのレポートによると、インドは世界のWeb3開発者の17%を占めており、2024年にはGitHubで前年比28%の増加を示し、世界最高の成長を記録しています。これにより、470万人以上の開発者が増えています。 タンドンは、今後24〜36か月が重要な時期だと考えており、初期のAI+ブロックチェーンの試行が市場で検証されつつあると述べています。 しかし、自律型AIトークンへの投資は、潜在的なリスクも伴います。Crypto取引所MudrexのCTOアルンカー・サクセナは、AIエージェントがスマートコントラクトを実行し、トランザクションを承認する際に、人間の監督なしに不正やCodingミス、脆弱性が生じる可能性を警告しています。グプタも、規制の枠組みが不確かであり、政府がAIを駆使した金融アプリケーションを評価していると指摘しています。 セキュリティ上の懸念として、CoinSwitchのバラジ・スリハリは、AIシステムもソフトウェアと同様に脆弱性を持ち得るため、許可されていない取引や財務損失のリスクがあることを説明しています。また、AIエージェントが予測不能に動く場合、責任の所在が不明確になるという問題もあります。 総じて、AIユーティリティトークンは、革新的な技術的可能性を秘めるとともに、投資家や開発者が慎重に対応すべき課題も抱えており、急速に進化する分散型エコシステムの中でその役割を拡大しています。

ベゾス・アース・ファンド、気候と自然のためのAI助成金第一弾を発表
2025年5月21日付のAxios Generateは、ビル・ゲイツ財団の地球基金が「AI for Climate and Nature Grand Challenge(気候と自然のためのAIグランドチャレンジ)」を立ち上げ、1億ドルのイニシアチブの下で最初の24の助成金受給者を発表したことを報じています。このプログラムは、人工知能を活用して緊急性の高い気候変動や生態系の問題に取り組むことを目的としています。各プロジェクトには最初に5万ドルの助成金が与えられ、イノベーションを加速させるために最大200万ドルまでの追跡資金が提供される可能性もあります。選ばれたプロジェクトは、持続可能なタンパク質の開発、生物多様性のモニタリング、サンゴ礁の分析、違法伐採の防止、アフリカの気象予測の改善など多岐にわたります。環境専門家とAI技術者の協力を促進し、実践的な効果を重視したこのイニシアチブは、AIの事前経験を問わず、多分野のチームが気候緩和と生態系保全のためのスケーラブルな解決策を創出することを奨励しています。 この助成プログラムの重要な特徴は、AIの専門知識を持たない応募者にも門戸を開いている点であり、分野の知識と高度なAI技術の融合によって効果的な現実世界の環境アプリケーションを創出するイノベーションを促しています。 助成金発表に加え、ニュースレターでは気候変動分野を左右するいくつかの重要な動きも紹介されています。ダイレクトエアキャプチャのリーダー企業Climeworksは、気候資金の減少に伴い22%の人員削減を発表し、気候危機の高まりにも関わらずグリーン技術への資金不足が続いている現状を浮き彫りにしています。さらに、国際エネルギー機関(IEA)による最近の報告書は、再生可能エネルギーや脱炭素に不可欠な重要なエネルギー鉱物の供給集中リスクの高まりを警告しており、地政学的リスクやサプライチェーンの脆弱性がクリーンエネルギーの移行の妨げとなる可能性を指摘しています。 また、2024年には世界の森林破壊が記録的に増加し、その多くは山火事によるものであり、火災によるCO2排出量は2023年の航空旅客全体の4倍にのぼっています。これらの破壊は温室効果ガス排出の拡大を招き、生物多様性と生態系の健康を著しく脅かし、炭素隔離の重要な役割を果たす自然資源を危機に陥れています。 政策面では、深海採掘規制や米国での新しい原子炉の承認など、複雑な環境ガバナンスの動きも注目されています。深海資源の採掘は議論の的ですが、エネルギー生産の新たな可能性を秘めています。一方、インフレーション抑制法(IRA)はいくつかの業界に対するクレジット削減を導入し、輸入された太陽電池に対する新たな関税も、国内産業の保護と再生可能エネルギーの拡大を両立させる試みとして進められています。 総じて、このAxios Generateの号は、技術、環境、政策の融合が気候変動への取り組みをいかに推進しているかを強調しています。ビル・ゲイツ財団のAI助成プログラムは、革新的な資金提供とセクター横断的なコラボレーションが気候解決策をどのように推し進めるかの好例です。一方で、Climeworksのような企業の資金難、IEAが指摘する供給リスク、そして変わりつつある政策は、多面的な課題とともに、新たな機会も示しています。 世界のコミュニティが気候変動の影響を抑え、エコシステムを守るために努力を強化する中、AIと環境科学の融合は有望な戦略として浮上しています。AI専門家と環境の実務者とのパートナーシップを促進することで、このような助成プログラムは、技術的に先進的で生態学的にも有効な解決策を生み出すことが可能です。最近の動きは、地球を守るためにより一層の調整と連携が求められる重要な局面を示しています。 要約すると、2025年5月21日付のAxios Generateニュースレターは、新たなAI主導の資金提供策から業界や政策の課題まで、気候と環境の未来を形成する重要なトレンドと動きを包括的に伝え、技術・持続可能性・ガバナンスの進化する関係性について貴重な洞察を提供しています。

ジンバブエ、ブロックチェーンを活用したカーボンクレジット市場システムを導入
ジンバブエは、より透明性と効率性を高めることを目的としたブロックチェーンを活用したカーボンクレジット市場のイニシアチブを開始しました。同国は既存のシステムからWeb3ベースのプラットフォームへと移行しており、カーボンクレジットの取引を行います。この変更を監督するために、ジンバブエは新たな規制機関である「カーボン市場管理局(ZCMA)」を設立し、ライセンスの発行、カーボンオフセットプロジェクトの承認、関連規制の遵守を担当します。環境省は、ZCMAを監督し、新システムへの厳格な準拠を促しています。 ジンバブエはカーボンクレジット市場を大幅に刷新してはいませんが、ブロックチェーンへの移行は重要な動きと見なされています。カリフォルニアの企業RippleNamiは、ジンバブエがアフリカでケニアとガボンに次ぐ第三のカーボンクレジット供給国であり、ブロックチェーン技術の採用により地域のリーダーになれると指摘しています。この動きは、他のアフリカ諸国にも追随を促す可能性があります。ブロックチェーンの導入は、過去に問題となった詐欺や非効率性の解決に役立つと期待されています。例えば、2023年にジンバブエは複数のプロジェクトをキャンセルし、収益の最大50%を求めたことが投資家の不信を招いていました。今や、ブロックチェーンは透明性と信用性を回復する手段とみなされています。 ジンバブエはまた、デジタル革新に強い信頼を示しており、金に裏付けられたデジタル通貨を導入し、小額投資機能も備えています。さらに、2022年以来、中央銀行デジタル通貨(CBDC)の計画も進めています。加えて、ジンバブエの億万長者ストライブ・マシイワは、Nvidiaと提携してアフリカ初のAI工場を設立し、同国の人工知能分野の発展も示しています。 一方、ノルウェーの調査は、ブロックチェーンが水産業におけるサプライチェーンの透明性を高める潜在力を持つことを強調しています。ブロックチェーンを利用したサプライチェーンは、漁獲地から小売棚までの流通経路を追跡し、製造過程や環境遵守、ハラール認証などのライフサイクル情報を不変の記録として保存します。生産者は酸素濃度、魚の健康状態、卵の質、餌のスケジュールなど重要なデータを記録し、標準化されたデータ保存と消費者による製品比較を可能にします。 水産物のサプライチェーンにおけるブロックチェーンの初期導入事例は好結果を示しており、より広範な採用を促進しています。例えば、6

AIモデルがユーザーデモグラフィックの洞察を明らかに
大規模言語モデル(LLM)にはGPT、Llama、Claude、DeepSeekなどがあり、これらは会話能力の卓越した流暢さを示し、人工知能を革新しています。これらのモデルは、詩作のような創造的な活動から、ウェブコーディングなどの技術的なタスクまで、人間に近い幅広い作業を行います。驚異的な能力を持ちながらも、これらのモデルの内部の仕組みはほとんど不透明であり、多くの場合「ブラックボックス」と呼ばれています。こうした透明性の欠如は、AIの理解と説明を目的とした解釈性の分野にとって大きな課題となっています。 これらの課題に対して、近年、産業界と学術界の両方から進展が見られます。Anthropic社やハーバード大学の研究チームなどは、LLMの内部ロジックを解明するために、特定の概念や偏見、仮定に関連した特徴やニューロンの活性パターンを特定する研究を進めています。重要な発見の一つは、LLMが入力内容に基づいて、性別、年齢、社会経済的背景といったユーザーの属性に対する仮定をリアルタイムで形成していることです。これらの仮定は、モデルの応答に影響し、多くの場合、訓練時に使用された膨大なデータセットから埋め込まれたステレオタイプを反映しています。 この行動は倫理的および社会的な懸念を引き起こします。なぜなら、LLMが既存の偏見を助長するだけでなく、日常のやり取りの中で詳細なユーザープロフィールを抽出する可能性があるからです。このようなプロフィール作成は、ターゲット広告やユーザーの行動や選択を操作する目的で悪用される可能性があり、より深刻なケースではプライバシーや同意の問題を提起します。 これらのリスクを認識し、AI研究コミュニティは透明性を高め、ユーザーや開発者のコントロール性向上を目的とした方法の開発に積極的に取り組んでいます。その一つとして、関係者がモデルのユーザー属性の認識を検出・調整し、それに応じて応答を修正できるメカニズムの構築があります。これにより、有害な偏見を最小限に抑え、安全性を向上させ、公平で倫理的なAIインタラクションを促進することが期待されています。 この議論は、透明性とユーザー保護を重視した業界全体の標準と実践の必要性を強調しています。LLMの開発者には、安全性、誠実さ、親切さといった価値観の保持が求められています。AIシステムへの依存が増す中で、信頼を維持することが不可欠です。LLMの能力と制限についての明確な情報提供と、不適切な使用を防ぐための堅牢な対策は、責任あるAIエコシステムを構築する上で重要です。 要約すると、大規模言語モデルはAIを用いたコミュニケーションや創造性の向上において非常に魅力的な可能性を示していますが、そのブラックボックス性が理解と規制を難しくしています。最近の研究は、これらのモデルがどのように敏感なユーザー情報を符号化し、応用しているのかを明らかにしつつあります。倫理的な運用には、開発者、研究者、政策立案者、ユーザーが協力して透明性を確保し、プライバシーを守り、偏見を軽減する努力が求められます。これらの課題に積極的に取り組むことで、AIコミュニティはLLMの利点を活かしつつリスクを最小化し、信頼性と公平性を兼ね備えた技術の実現を目指すことができるのです。

グーグルの長官たち、AIの到来は2030年ごろと予測
最近のGoogle I/Oデベロッパー会議で、Googleの共同創業者セルゲイ・ブリンとGoogle DeepMindのCEOデミス・ハサビスは、人工知能の未来について大きな発表を行いました。彼らは、人工汎用知能(AGI)—人間の認知能力に匹敵またはそれを超える高度なAI—が2030年頃に出現する可能性があると信じていると表明しました。この予測は、AIコミュニティの中でAGIの開発は避けられないというコンセンサスが高まる中で注目を集めており、正確なタイムラインやその実現の可能な影響についてさまざまな意見が存在しています。 イベント中、ブリンは予期せぬ形でステージに登壇し、ハサビスとのインタビューに応じました。これはAGI開発に向けた継続的な努力の重要性を強調する重要な瞬間となりました。彼らの議論は、現在の専門性の高いAIモデルからより一般化された知能へと進むために何が必要かに焦点を当てました。ハサビスは、現代のAIモデルのスケーリングも重要だが、AGIを達成するためには段階的な改良を超える研究と技術の大きなブレークスルーが必要であると強調しました。これは、人間と同じように理解し、学び、多くのタスクを効果的に遂行できるAIシステムを作ることの難しさを示しています。 Googleは会議で、さまざまな革新的なAI開発手法も紹介し、AGIに向けた複数の道筋を模索していることを示しました。これらの新しい戦略は、既存の機械学習モデルの改良だけでなく、新しいアーキテクチャやパラダイムの実験も含む、GoogleのAI研究の複雑さを浮き彫りにしています。この多様性は、多くの技術的および倫理的な障壁を克服し、真に汎用的なAIを実現するために不可欠と考えられています。 ブリンとハサビスはともに、AGIの正確な到来時期には不確実性があることを認めました。彼らは、次の10年以内にAGIを達成することに楽観的ですが、一方で、予期しない課題や技術の進歩次第では早まることも遅れることもあり得ると警告しています。彼らの発言は、革新的な進展への希望と、先に待ち受ける多くの課題と責任を認識するバランスの取れた見方を反映しています。 より広いAIコミュニティは、AGIの影響についてますます関心を高めており、その産業全体への変革の可能性だけでなく、倫理的・社会的な影響についても考察しています。Google I/Oでの議論は、主要なAI研究者たちが追求している具体的な取り組みやビジョンを示すことで、この対話に勢いを与えました。AGIに関する議論では、安全性や制御メカニズム、公平な利益配分といったテーマも頻繁に取り上げられています。これらの問題は解決が難しい部分もありますが、責任ある開発のためには非常に重要です。 総じて、セルゲイ・ブリンとデミス・ハサビスがGoogle I/Oで示した見解は、GoogleとそのDeepMind部門が人工知能の未来において重要な役割を果たす準備と意欲を持っていることを明らかにしています。彼らのAGIが2030年頃に現れるとする予測は、興奮と警戒の両方を伝えており、今後の研究と議論の枠組みを築いています。AIが急速に進化する中、今後数年間は技術の重要な進展が見込まれ、それが人類の社会とともに何十年にもわたってその軌道と役割を形成していくでしょう。

FinCEN、カンボジア拠点のHuioneグループをマネーロンダリングの疑いで標的に
米国財務省の金融犯罪執行ネットワーク(FinCEN)は、カンボジアを拠点とするHuioneグループを正式に主要なマネーロンダリング懸念の金融機関に指定しました。この指定は、Huioneが違法な収益のマネーロンダリング、特に北朝鮮(DPRK)に関連したサイバー襲撃による不正資金の洗浄において重要な役割を果たしていることを強調しています。グループはまた、東南アジアを舞台にしたトランスナショナルな犯罪ネットワークを支援し、換金可能な仮想通貨を用いた投資詐欺、「豚の屠殺(ピッグブッチャリング)」と呼ばれる詐欺行為に関与しています。FinCENの発表は、サイバー犯罪や国際的な詐欺を可能にする金融ネットワークの崩壊を目的とした世界的な取り組みの重要な一歩です。Huioneグループを主要な懸念対象に指定することで、財務省はより厳格な規制監督を実施し、不正資金の洗浄のための同グループの国際金融システムへのアクセスを制限することを目指しています。 カンボジアに本部を置くHuioneグループは、世界中の金融機関や仮想通貨取引所を標的にした北朝鮮のハッキング作戦に関連するサイバー襲撃から得られた収益の洗浄と隠蔽に広く関与してきました。同グループのこれらの違法利益処理における役割は、一部の金融機関がサイバー犯罪によって得られた資産の正当化のための仲介役を果たしていることを示しています。さらに、Huioneは、換金可能な仮想通貨のプラットフォームを利用した東南アジアの投資詐欺、「豚の屠殺」詐欺の支援も行っています。これらの詐欺は、被害者を大金の投資に誘導し、その資金を違法に流用する巧妙な手口を伴います。これにより、地域内の犯罪ネットワークが高度な金融ツールや技術を駆使して検挙を逃れながら組織的に活動していることが浮き彫りになっています。 FinCENのこの指定は、世界的に重大な規制・執行の変化をもたらし、金融機関や規制当局に対し、Huioneグループと関係のある企業との取引において慎重なデューデリジェンスを要求し、不注意によるマネーロンダリングリスクを低減させることを促進します。これは、サイバー犯罪、違法国家、組織犯罪に関連する不正な金融流出に対抗する国際的な取り組みに沿ったものです。暗号通貨などの換金可能な仮想通貨は、その擬似匿名性により資金の出所や行き先を隠すことができ、追跡と回収を困難にしています。Huioneの活動は、新興の金融技術を規制し、その悪用を抑制する上で、規制当局が直面している課題を浮き彫りにしています。 この指定は、サイバーを伴う金融犯罪を支援する企業に対する規制当局の監視強化の流れを反映しています。FinCENの措置は、不正行為を支援する金融インフラを断ち切り、全世界の金融システムを悪用から守る米国の決意を示すものです。関係者には、警戒心を高め、違法資金が正規の金融チャネルに浸透するのを防ぐための仕組みの強化が推奨されます。国際協力の強化、規制枠組みの整備、取引監視技術の進展は、Huioneのような組織が用いる高度な戦術に対抗するために不可欠です。 全体として、財務省によるHuioneグループのマネーロンダリング主要懸念対象の指定は、技術革新とともに進化する金融犯罪の実態を浮き彫りにします。これは、国際的な金融規制を不断に適応させ、マネーロンダリングや関連犯罪と闘う必要性を強調しています。

AIによるコンテンツ生成が新聞における誤情報の原因に
最近、「ヒートインデックス」と呼ばれる特集記事について、論争が巻き起こっています。「ヒートインデックス」は、シカゴ・サンタイムズやフィラデルフィア・インクワイアラーといった広く読まれる新聞に50ページの補足特集として掲載された、軽めの夏のガイドです。また、キング・フェーチャーズによって配信されていました。楽しくて役立つ夏のコンテンツを提供することを目的としていましたが、AI(人工知能)を用いて制作された結果、多くの事実誤認が含まれていることが判明しました。 この特集には、書籍のおすすめや著名な引用句などが含まれていましたが、その多くが作り話または誤った出典の割り当てでした。調査の結果、存在しない専門家に誤って引用された例もありました。例えば、架空のコーネル大学の教授に偽る引用や、実在の人物が誤った所属や関係を持つと誤って記載されていたケースもありました。 フリーランスのライター、マルコ・ブスキアーは、AIの言語モデル「ChatGPT」を使って一部のコンテンツを生成したことを認めましたが、その前に十分な事実確認を行わなかったことも認めています。このAI頼みの制作過程は、誤った情報や誤解を招く内容を見逃す結果となり、問題を引き起こしました。 こうした誤った内容は、複数の編集段階を経ても検出されず、検閲と編集の過程に重大な疎漏があったことを示しています。両紙は公にこれらの誤りを非難し、AI生成コンテンツの使用が編集基準に反するとして、受け入れられないと表明しました。彼らは信頼できる報道の重要性を改めて強調し、今回の過ちについて責任を取る姿勢を示しました。 この事件は、予算縮小や人手不足により低迷している地方ジャーナリズムの現状とも関係しています。そうしたプレッシャーの中で、迅速に大量のコンテンツを作成しようとすると、細かい事実確認がおろそかになりがちです。便利さと効率性を謳うAIツールは魅力的に見えますが、この事例が示すようにリスクも伴います。 この「ヒートインデックス」のケースは、メディア制作におけるAIの誤用による落とし穴の一例として警鐘を鳴らしています。AIは生産性向上に役立ち得ますが、適切な監督がなければ不正確で質の低いコンテンツを広め、公共の信頼を損ない、誤情報を拡散させてしまいます。 メディア倫理やジャーナリズムの専門家は、特に自動化されたコンテンツ作成が一般化する中、強固な編集管理と厳格な事実検証の必要性を強調しています。技術革新とジャーナリズムの誠実さのバランスを取ることが、正確で信頼できる報道を維持するために重要です。 今後は、ニュース組織やフリーランス、キング・フェーチャーズのような配信者も、AIコンテンツに関する明確なガイドラインを設定し、編集の厳格さを強化し、包括的なトレーニングを行う必要があります。同時に、読者も人間と機械が生成したコンテンツの区別が曖昧になる中で、警戒心と批判的な視点を持つことが求められます。 要するに、「ヒートインデックス」の事例は、AIがますます重要な役割を果たすメディアの世界において、責任ある技術の活用と、真実性・正確性・責任ある姿勢を堅持することの重要性を示しています。情報の信頼性を守ることは、市民の意思決定や健全な民主主義の維持にとって不可欠です。