私は最近、学生の学習におけるAIの頻繁な使用に懸念を抱く大学の教育者と話しました。彼らは、将来の労働者が過度にAIに依存してしまうのではないかと恐れています。中心的な問題は:私たちは介入すべきかどうかです(Owocら、2019年の議論参照)。これは複雑な問題ですが、私はAIを過去の技術革新のように捉えることを提案します。それは私たちの思考や生活様式を変えてきたものです(クーン、1997年)。 例えば、印刷技術を考えてみてください。当時、それは制御されていない思想が社会に氾濫し、学術的権威に挑戦すると恐れられました。ラジオは、家庭を気晴らし、センセーショナルな内容を広めるとして批判されました。テレビは、集中力や批判的思考を減退させると非難されました。最近では、インターネットやスマートフォンが情報過多やソーシャルメディアの害について議論を巻き起こしています(Carr、2020年)。 重要なのは、:テクノロジーそのものが頭を鋭くしたり鈍くしたりするのではなく、その使い方次第だということです。例えば、世界中でインターネットアクセスが可能になったことで、膨大な教育資源と平等な学習機会が提供されています(Haqら、2023年)。しかし、知性や専門知識は大きく異なります。それはIQの差ではなく、どのように知識を追求し、応用するかによります。ある人はインターネットを使って質の高い資源にアクセスしますが、別の人はつまらないコンテンツをスクロールするだけです。AIチャットボットについても同じで、あなたが賢くなるかどうかは、あなた自身次第です。 例1:創造性と主体性の妨げ ある人事担当者が、チャットボットにソフトウェアエンジニア向けの2時間のウェルビーイングイベントを設計させるとします。チャットボットは完全な計画を素早く作成し、タスクを達成します。しかし、これにより全ての創造性が外部に委ねられ、専門的な成長はほとんど得られません。タスクの完了は成長ではありません。では、大規模言語モデル(LLMs)を使って、創造性や主体性を犠牲にせずにどう活用できるのでしょうか? 私の答えは:既成の解決策に抵抗することです。LLMsは、自分の状況に合わせた学習を導くことができます。批判的思考を促すソクラテス式の問いかけ(Zare & Mukundan、2015年)のように、LLMsはアイデアに挑戦し、推論を洗練させる疲れない「 sparring partner」役を果たします(Laak & Aru、2024年)。 例2:創造性と主体性を促進 この人事担当者は、直接的な解答ではなく質問を通じてガイダンスを求めるプロンプトを使用します。チャットボットは、考えさせる質問を投げかけ、アイデアを批評し、自立性や創造性、好奇心を育てます。 最終的に、その管理者は専門性が向上し、AIの影響が使い方次第で大きく異なることを示しています。 AIは問題解決者ではなく、指南役として 一部の人は、知的怠惰を防ぎ、基礎的な学習を保証するためにAIの制限を支持しています(Yu、2023年)。私はこれに反対です。AI革命は止められませんし、禁止は無意味です。むしろ、私は学生に対して、AIを思考の代替ではなく、学びを増幅させるために使うことを勧めます。AIを個人の家庭教師、ソクラテス的な対戦相手、公平な分析者、または自分の近接発達領域(ZPD)へと押し進めるガイドとして活用してください。 このアプローチは、良い親心に似ています。できる子の問題を解決するのではなく(それは成長を妨げます)、子どもの近接発達領域を見極めて前に進む手助けをするのです(ヴィゴツキー、1978年)。同様に、AIはあなたの問題を解決する障害物にもなり得ますし、自己主導の成長を支援するメンターにもなり得るのです。
© 2025 Fortune Media IP Limited.
JPモルガンは、そのブロックチェーン技術を活用した銀行口座サービス「Kinexys Digital Payments(以前のJPM Coin)」を、新たに英ポンド(GBP)の三番目の通貨として導入しました。この拡大により、企業の24時間365日の支払いとドル、ユーロ、ポンドの外国為替対応が可能になりました。ロンドンにおけるスターリングサービスの初期利用者には、LSEGのSwapAgentや商品取引業者のTrafiguraが含まれます。 Kinexysは、支払い、日中レポ取引、担保管理などさまざまなサービスを通じて、総取引額が15,000億ドルを超え、現在では1日あたり約20億ドルの取引を処理しています。 LSEGのLCH派生商品マージンおよび決済サービスのSwapAgentは、JPモルガンのロンドン子会社を通じてKinexys Digital Paymentsを利用し、英国のデジタル証券サンドボックスとは独立して運用されるポストトレードサービスのパイロットを実施します。その後、より広範な導入も検討される予定です。 SwapAgentのCEO、Nathan Ondyakは、「革新的なKinexys Digital Paymentsのブロックチェーン預金口座を私たちのSwapAgentの提供に統合することで、従来の支店の締め切り時間を超えて取引を行ったり、将来的には決済をプログラム管理できるようになる可能性があります」と述べました。 Trafiguraは、ニューヨーク、ロンドン、シンガポールの各拠点間で、Kinexysを利用した24時間体制の越境決済を行っており、これらの拠点間の資金スイープをほぼリアルタイムで行えるプログラム可能な支払いの導入を計画しています。 デジタル証券サンドボックスでの支払いは? UKでのKinexys Digital Paymentsの導入は、英国銀行(Bank of England)と金融行為規制局(FCA)が共同で運営するデジタル証券サンドボックス(DSS)の初期段階と同時に行われています。JPモルガンに対しては、その関与の可能性について問い合わせがありましたが、コメントは控えられました。 機関投資家向けの取引決済には、中央銀行の資金を利用したトークン化された決済システムFnalityが関与する可能性があります。ただし、法人や一部の非銀行金融機関は中央銀行の資金にアクセスできず、そのニーズを満たすためにKinexysがデジタルな解決策として役立つ可能性があります。一方、英国の主要銀行の多くは、トークン化された預金決済システム「Regulated Liability Network」の開発を進めていますが、こちらはまだ実用化されていません。
人工知能(AI)は最終的に職場で人間を置き換えるのか?Mechanizeの創設者はこれが真実だと考えているようだ。 このスタートアップは、2024年4月19日土曜日のTechCrunchのレポートで紹介され、その明確なミッションを掲げて先週デビューし、いくつかの論争を巻き起こした。 「Mechanizeは仮想的な作業環境、ベンチマーク、訓練データを構築し、すべての仕事の完全な自動化を実現します」と、タメイ・ベシログルはX上の投稿で書いている。 この企業はこれをさらに進めて、経済全体の完全自動化も約束しているとXの発表で述べている。 「人々が仕事で行うすべてのことを捉えるシミュレーション環境と評価を作成することで、これを達成します」とMechanizeは説明している。「これにはコンピューターの使用、成功基準が明確でない長期的なタスクの遂行、他者との調整、障害や中断に直面したときの優先順位の再設定が含まれます。」 TechCrunchによると、ベシログルはMechanizeの潜在的な市場規模を、世界中の人件費を合算して推定し、その額は年間約60兆ドルに達すると述べている。 しかし彼は、そのインタビューで「私たちの直近の焦点は実際にホワイトカラーの仕事にあり、ロボットを必要とする手作業の仕事ではない」と語った。 TechCrunchは、今回の立ち上げに対して「容赦ない反応」があったと指摘し、一部のXユーザーは「ほとんどの人間の労働の自動化は…ほとんどの人にとって大きな損失になるだろう」と主張した。 今月初めのPYMNTSの報告によると、多くの労働者はAIによって人間の労働者が不要になるのか、それとも価値が上がるのかを懸念している。 それにもかかわらず、MITの経済学教授デイビッド・オーターは、AIは主に労働者を補強するものであり、置き換えるものではないと主張している。 「AIには二つの見方がある。一つは機械が我々を無意味にするという見方。もう一つは、機械が我々をより有用にするという見方だ。後者には多くの利点があると思う」と、オーターはマサチューセッツ州ケンブリッジで開催された2025年MIT AI会議で述べた。 彼は歴史的な事例に言及している。「過去200年間で、私たちは多くのことを自動化してきた。機械化も進めてきた。農業から工業へと移行し、肉体労働から解放された。しかし、その期間中に私たちの労働はより価値あるものになった。」 それでもなお、労働者たちは不安を抱いている。PYMNTSインテリジェンスが行った調査「GenAI:AIの利用と態度に関する世代別調査」では、回答者の54%がAIが広範囲の仕事喪失の「重大なリスク」をもたらすと考えていることがわかった。 これらの懸念はさまざまな業界や層に影響を与えており、特に技術分野や対顧客業務では最も高い懸念(58%)が示されている。一方、医療や教育分野では懸念は低めで、それぞれ48%と52%だった。
米国のハイテク産業が関税問題に苦しむ中、人工知能(AI)に関する熱狂は収まりつつあるかもしれませんが、それでも一部の投資家は深く関わり、価値ある機会を探し続けています。 その中には、著名なベンチャーキャピタリストで元ゲーム企業のCEO、ビクター・ラザルテもいます。彼はあっけらかんと、「AIはすでに人間を完全に置き換えている」と断言しています。一部の企業が完全自動化された未来への熱狂を停止しているのに対し、ラザルテは積極的に前進しています。 「大手企業は『AIは人間を置き換えるのではなく、補助するものだ』といった言い方をします」と、彼はTwenty Minute VCポッドキャストで述べました。「そんなのはナンセンスです。AIは人間を完全に置き換えています。」 ビジネスインサイダーによると、ラザルテは弁護士や人事専門家がAIによる職業の脅威について特に懸念すべきだと指摘しています。彼は法科大学院の学生たちに、3年後にAIができない業務を考えるよう促しています。 これは、ラザルテの立場としては興味深いもので、彼のファームであるBenchmarkは、AIを駆使した採用プラットフォームのMercorや、AIを活用した研究所Decartなどのスタートアップに重要な投資を行っています。 ラザルテは自身の主張に対して具体的な証拠を示さず、「多額の資金を投資しているので信用してほしい」と暗に示しています。彼の言葉の真偽を評価するには、法律や採用分野におけるAIの現状を調べる必要がありますが、その現実は決して楽観的ではありません。 法の面では、最近の動きは問題を孕んでいます。ニューヨーク最高裁判事は、AI生成の動画を人間の弁護士代わりに使おうとした起業家を厳しく叱責しました。彼は実際に、自身の法律支援ソフトのスタートアップ「Pro Se Pro」を現実世界で試していたと報告されています。 裁判官は断固として、「この法廷をあなたのビジネスの出発点に使わせるつもりはない」と述べました。 また、元トランプ弁護士のマイケル・コーエン氏も、AI生成の完全な架空の事例引用を含む法的資料を提出したとして問題になっています。 多くのスタートアップ創業者や投資家がAIを「裁判所用に準備できている」と喧伝しようとしていますが、経験豊富な法律の専門家たちは懐疑的です。 「裁判所はAIの出現を前に規制を強めるだろう」と、法学教授のマーク・バソロメウはビジネスインサイダーに語っています。 最大の問題は、AIが素早く回答を生成し、かつ正確さを無視する傾向にあります。 法曹界のコラムニスト、バージニア・ハンマリーは、「Googleに法的な質問を入力すると、生成AIは迅速に答えを提供しようとします。でも、それは必ずしも良いことではありません」と指摘します。 採用の面では、さらに深刻です。 現在のAIモデルは、訓練データから引き継いだ人種差別や女性蔑視の偏見に満ちており、それにもかかわらず企業はAIを人事に導入し続けています。調査によると、フォーチュン500企業の99%が応募者の選考にAIを利用しており、インタビューをAIに任せる動きも高まっています。 これにより、求職者にとって悪夢のような状況が生まれています。一部の候補者はAIツールを使ってAIの採用システムと戦い、求人に大量に応募を送るケースもあります。この悪循環は、AIに詳しくない人、特に障害を持つ人、高齢者、移民労働者にとって不利に働き、AI生成のスパムが雇用獲得の条件となる状況を作り出しています。 AIの無謀な使用について、カリフォルニア大学バークレー校のコンピュータ科学教授ハニー・ファリドは、次のように要約しています。 「何かが避けられないからといって、それを導入して良いわけではない」と。 AIに関するさらに詳細な情報については、「フリーランサーがAIによって破滅させられている」というトピックもあります。
企業が膨大なデータを収集・分析し、エクスペリエンスの個別化や運用の最適化を図る中で、強固なサイバーセキュリティ対策の重要性はこれまでになく高まっています。しかし、データ量の増加は、同時にサイバー脅威や詐欺、データ侵害のリスクも増大させています。 増加する財務リスクや規制要求に直面し、企業は積極的なセキュリティ戦略を採用しなければなりません。サイシューマン・シンガムセッティのような専門家は、AIを活用した詐欺検出やブロックチェーンベースのセキュリティフレームワークの革新を主導し、企業が機密情報を保護し、信頼を維持できるよう支援しています。 **AIを活用した詐欺検出:金融セキュリティの強化** 金融詐欺はますます巧妙になっており、サイバー犯罪者はAIツールを駆使して従来の防御を回避しようとしています。多くの金融機関は未だに時代遅れの詐欺モデルに頼っており、進化した攻撃に対して脆弱です。最新のシステムは、深層強化学習を用いて膨大な取引データをリアルタイムで分析し、複雑な詐欺パターンを検知し続けることで、精度を向上させ、誤検知を減らし、詐欺が拡大する前に防止します。この適応型アプローチは、静的なルールベースのシステムよりも優れています。 サイシューマン・シンガムセッティは、予測分析と機械学習を用いて早期に不正行為を識別し、積極的な対策を可能にするリアルタイム監視および適応型セキュリティフレームワークを開発しています。彼の研究は、次世代の詐欺防止技術の先駆けとなっています。 **ブロックチェーンを利用したセキュリティ:データの完全性を保証** 詐欺防止だけでなく、サイバー脅威が進化する中でデータの完全性を保つことも極めて重要です。ブロックチェーンは、改ざん防止の分散型フレームワークを提供し、透明性と信頼性を向上させます。シンガムセッティは、フェデレーテッドラーニングとブロックチェーンを統合した革新的な技術を開発し、スマートセンサーやウェアラブルデバイスなどがプライベートデータを公開することなく共同のAIモデルに貢献できる仕組みを実現しました。ブロックチェーンのアイデンティティ認証と安全なAIトレーニングを組み合わせることで、安全なクロスネットワークの協働を促進しています。 また、彼は、共有されたAIモデルへのすべての貢献をリアルタイムで追跡・検証できるシステムも開発し、従来の方法と比べてリスクを低減し、信頼性を高めています。これらのブレークスルーは、ブロックチェーンを活用したセキュリティフレームワークやサイバー耐性を強化するとともに、プライバシーも維持します。 とはいえ、規制遵守やシステムの互換性、拡張性といった課題も存在します。シンガムセッティは、組織がイノベーションとガバナンスのバランスを取りながら、データ保護法と整合させてブロックチェーンの潜在能力を責任を持って最大化できるよう支援しています。ガートナーは、2025年までに75%以上の企業がブロックチェーンを基盤としたセキュリティモデルを採用すると予測しており、データ保護と中央集権的なストレージリスクの最小化においてその重要性が高まっています。 **倫理的AIガバナンス:バイアスと公平性への対応** AIガバナンスにおいて大きな課題のひとつは、機械学習におけるバイアスです。これにより、不公平な詐欺判定やサービス拒否が生じる恐れがあります。AIの判断が公平・透明・説明責任を持つことは、その精度と同様に重要です。 シンガムセッティは、公平性と差別の防止を重視した倫理的AIフレームワークの推進に力を入れており、偏った過去のデータではなく、リアルタイムの行動に焦点を当てることで、不公平な偏見を軽減しつつ正確さを保持しています。継続的な監査とフィードバックループを導入することで、アルゴリズムのバイアスを削減しつつ、すべてのユーザーに対して公正なセキュリティを提供し、顧客の信頼を維持しています。 認証、バイオメトリクス、ゼロトラストモデルなどのイノベーションにより、AI駆動のサイバーセキュリティ市場は2030年までに1,330億ドルに達すると予測されており、GDPRなどの規制の中で倫理的AI実践はますます不可欠となっています。責任あるAIガバナンスは、セキュリティと規制遵守の双方を強化します。 AIを活用したセキュリティは、脅威への対応を超え、自律的かつ積極的に進化する必要があります。人間の監督や倫理基準、法令遵守を組み合わせながら、その効果と信頼性を維持することが求められます。 **今後の展望** サイバー脅威の複雑さが増す中、企業は先進的な詐欺検出、ブロックチェーンフレームワーク、倫理的AIガバナンスといったAI駆動のセキュリティソリューションを採用し、先手を打つ必要があります。成功は、これらの技術をいかに戦略的に導入・改善・継続的管理できるかにかかっています。 AIは脅威の検知において比類なき速度と精度を持ち、ブロックチェーンは改ざん防止のデータ保護を保証します。しかし、スケーラビリティや規制適合性、倫理的な問題にも対応しなければなりません。 サイシューマン・シンガムセッティは、次世代の詐欺防止技術、ブロックチェーン戦略、倫理的AIモデルを通じてデジタルセキュリティの未来を形作っています。責任あるAIセキュリティに投資する企業は、変化し続けるデジタル環境をより良く乗り切ることができる一方、遅れれば多大な損失を被るリスクもあります。 明らかなのは、企業は責任を持ってAIセキュリティを採用し、ガバナンスを改善し、透明性を守ることで、長期的なレジリエンスと信頼を確保しなければならないということです。イノベーションと倫理、規制遵守を両立させることで、組織は絶え間ない脅威の中でも自らのデジタルアイデンティティを守ることができるのです。
Anthropicは、AIの研究・開発をリードする企業であり、AIモデルがコンピューターシステムに限定的な制御を行えるようにする重大な進展を発表しました。これは、AIの自律性や対話性を高める重要な一歩です。従来、AIモデルは受動的に機能し、情報提供やコンテンツ生成を行うだけで、ホストコンピューターのOSやファイル管理には直接関与しませんでした。Anthropicの新機能により、AIはシステム設定の調整やファイル管理といった、従来の自動化範囲を超えた具体的なタスクを実行できるようになりました。 この制御されたシステムインタラクションは、多様な実用例を可能にします。AIは、ユーザーの行動に基づいてシステムのパフォーマンスを最適化したり、ファイル整理やストレージ管理のような定型的なメンテナンスを自動化したり、複雑な作業フローを人間の継続的な介入なしに処理したりできます。これらの開発は、生産性を向上させ、日常的なコンピューティングへのAIの統合を拡大させる可能性があります。 しかしながら、これらの有望な能力にもかかわらず、Anthropicは安全性確保と悪用防止のために厳格な制限を課しています。AIの制御は意図的に限定されており、イノベーションと慎重さのバランスを取っています。システムの損傷や不正アクセス、意図しない自動化による結果のリスクを低減するためです。AI倫理やサイバーセキュリティの専門家は、AIが自律性やコンピューティング環境への直接的な影響を増す中で、堅牢な安全プロトコルと倫理的ガイドラインの重要性を強調しています。透明性、責任追及、ユーザーコントロールは、信頼を維持し、不正を防ぐために不可欠です。 Anthropicのこの進展は、自然言語を理解するだけでなく、ハードウェアやソフトウェアのインフラと安全に連携できるAIの開発に関する議論も促進しています。会社は責任あるイノベーションを優先し、拡張されたAI機能とユーザープロテクションのバランスを追求しています。業界関係者は、この進歩がAIとコンピューターのインタラクションを強化し、自律性の高いAIタスクの拡大とともに、高度な監視やフェールセーフ機構を取り入れ、倫理基準を維持するための研究を刺激すると期待しています。 このマイルストーンは、実用的な側面だけでなく、人間とAI、そしてテクノロジーの進化する関係性についても重要な洞察を提供します。開発者や政策立案者、ユーザーに対して、自律型AIエージェントの設計・制御・運用について再考を促しています。Anthropicは、これらの課題に取り組むために、より広範なAIコミュニティと協力し、安全性と倫理性を重視した議論やベストプラクティスの確立に努めています。これは、業界の模範となるモデルです。 AIの能力が急速に進化する中で、限定的なシステム制御を取り入れることは、新たな可能性を切り拓く重要な動きであるとともに、責任ある管理の必要性を浮き彫りにしています。この進展は、AIの機能向上だけでなく、パッシブなツールから積極的なコラボレーターへと進化させる、デジタル環境における役割の変革も示しています。 要約すると、Anthropicによる制限付きAI制御の導入は、技術的な重要な飛躍を意味します。明確な範囲内で設定の調整やファイル管理を行えるようにすることで、自動化や知的な対話の新たな道を開きつつ、倫理と安全性の重要性も強調しています。今後のAIの展望は、より深いコンピューター統合に向かい、技術が人類にとって有益かつ安全に役立つ原則を基盤としています。
- 1