lang icon English

All
Popular
Sept. 18, 2024, 1:30 a.m. 現在、議会には120以上のAI法案が提出されています

現在、米国議会では人工知能(AI)に関する120以上の法案が議論されており、幅広い問題に対処しています。いくつかの法案は学校でのAI教育を強化することを目的としており、他の法案は開発者がトレーニングに使用する著作権保護された素材の開示を要求し、一部はAIに関連したロボコールや生物学的リスクを防ぐことに焦点を当てています。特に注目すべきは、AIが自動的に核兵器を発射しないようにすることを目的とした法案です。 この立法活動の多さは、急速に進化するAI技術に対応するための議会の緊急性を反映しています。下院科学・宇宙技術委員会の広報担当ディレクターであるヘザー・ボーンは、経済にとって重要なこれらの問題に対処する必要性を強調しています。 しかし、これらの法案の大半は、委員会での議論を超えて進展しないため、法律にならない可能性が高いです。この現在の立法活動は、政策立案者のAIリスクに対する関心、党の優先事項、および米国におけるAIに対する包括的な規制ビジョンを洞察させます。 ブレナン司法センターとの協力を通じて、MITテクノロジーレビューはこれらの法案の状態を調査しました。最近、上院商務委員会は、米国AI安全機構(AISI)の設立とAIに関する公共教育の強化を目的とした5つのAI関連法案を承認し、ディープフェイク・ポルノグラフィーとの戦いに向けた措置も含まれています。下院科学・宇宙技術委員会も9月に9つの法案を進め、AI教育、国家規格技術研究所(NIST)からのガイドラインの策定、およびAI労働力の拡大に焦点を当てました。 これらの法案の多くは、業界と政策立案者の間の協力を促進するための拘束力のないガイダンスを提供することを目的としており、イノベーションを妨げる可能性のある義務を避けています。下院委員会内では、任意のガイドラインを支持することが、規制とイノベーションのバランスを保つための鍵であるという一般的なコンセンサスがあります。これらの規制の効果を薄める可能性のある業界ロビイストについての懸念も提起されています。 洞察によると、AI関連法案の3分の2は民主党によって支援されており、主に科学、技術、商取引に関するテーマに集中していますが、労働や市民権問題にはほとんど注意が払われていません。特に、AIの偏見問題は脇に追いやられており、一部の議員はこの見落としに対する不満を表明しています。 超党派の支持を得ることの難しさにもかかわらず、ディープフェイクのような特定の問題は、民主党と共和党の両方の上院議員によって共同支援された法案によって、より多くの協力を促進する可能性があります。これまでに法案はまだ成立していませんが、AI技術を慎重に規制するために議会で進展が見られています。 要約すると、議会は進行中の立法努力により、AIの可能性とリスクに積極的に取り組んでいますが、規制プロセスの複雑さと課題にもかかわらずです。

Sept. 18, 2024, 1 a.m. ほとんどの米国のティーンエイジャーは生成的AIを使用しています。ほとんどの親は知りません

子供のテクノロジー使用に対する懸念が高まっており、特にスマートフォンやソーシャルメディアに関してはそうですが、ティーンエイジャーは生成的AIを受け入れています。最近のCommon Sense Mediaの報告によれば、米国のティーンエイジャーの70%がChatGPTやDALL-EなどのAIツールを利用しており、そのうちの半分以上が学校の課題や暇つぶしのためにAIを使用しています。ティーンエイジャーの間でのAIの採用は加速しており、英国で見られる率に匹敵しています。 教育機関は明確なガイドラインを確立するのに苦労しており、多くのティーンエイジャーは学校のAIポリシーを認識していません—60%が明確なルールがないと報告しています。注目すべきことに、親の80%以上が子供の学校が生成的AIについて対処していないと考えており、わずか4%がこれらのツールが禁止されていると報告しました。学校がAIについて話し合うとき、学生はその使用についての理解と批判的思考を示します。 親は子供のAI使用についての認識が不足しており、これらのツールを使用していることを認識しているのはわずか37%です。多くの親はライティングや批判的思考への潜在的な悪影響を心配していますが、研究スキルに対するAIの影響については意見が分かれています。興味深いことに、黒人の学生はAI使用に関して不当な検出ソフトウェアによってしばしば不当に指摘され、存在する格差を浮き彫りにしています。 これらの課題にもかかわらず、黒人およびラテン系のティーンエイジャーは白人の同世代よりも教育におけるAIに対してより楽観的で熱心であり、多くは友伴や創造的な目的でそれを使用しています。全体として、学生はAIについて学ぶ必要性を認識しており、半数以上が若年層の子供たちがこれらの技術について学ぶことを要求すべきだと考えています。Common Sense Mediaのアマンダ・レンハートは、教育者がこの話題に対処することが重要だと強調しています。

Sept. 18, 2024, 12:06 a.m. AI搭載キャンペーンの新機能とコントロール

Google Adsは、ビジネスが顧客の購買行動の各段階で顧客にリーチするのを支援し、AI駆動のキャンペーンがあらゆる規模のビジネスに対して大きな成果をもたらしています。AIの利用時におけるコントロールとインサイトの強化を求めるユーザーからのフィードバックに応じて、Googleは投資収益率(ROI)の最大化に焦点を当てたいくつかの進展を発表しました。 デジタルマーケティングの重要な会議であるDMEXCOで、Googleは5つの主な革新を強調しました。 1

Sept. 17, 2024, 4:17 p.m. カリフォルニア州知事がAIによる選挙ディープフェイクを取り締まる法案に署名

サクラメント, カリフォルニア州(AP)—火曜日、カリフォルニア州知事ギャビン・ニューサムは、2024年の選挙を前に政治広告での偽画像やビデオの作成に人工知能が使用されるのを抑制することを目的とした3つの新しい法律を施行しました。 これらの法律の1つは、施行即日、選挙日の120日前から選挙後60日までの間に選挙関連のディープフェイクを作成および配布することを禁止しています。この法律は、裁判所がそのような素材の配布を停止し、違反に対して民事罰を課す権限を持つことを規定しています。 「選挙の完全性を保護することは民主主義にとって重要であり、特に現在の政治環境において、AIが誤報を通じて公衆の信頼を損なうために悪用されないように確保しなければなりません」とニューサムは述べました。「これらの新たな取り組みは、政治広告やその他のコンテンツにおいてディープフェイクの有害な使用と戦うのに役立ち、透明で信頼できるAIの推進に向けた州の積極的な努力の一環とします。」 さらに、大規模なソーシャルメディアプラットフォームが欺瞞的なコンテンツを排除することを義務付ける革新的な法律が来年発効します。別の法案は、政治キャンペーンが広告にAIで変更された素材を使用する場合にその使用を開示することを義務付けています。 ニューサムがこれらの法案に署名したことは、サンフランシスコで開催された著名なソフトウェア会議でセールスフォースのCEO、マーク・ベニオフとの討論中に熱狂的な拍手で迎えられました。 これらの新しい法律は、特に選挙ディープフェイクとの戦いにおいて、カリフォルニア州のAI規制の先駆者としての評判を高めるものです。カリフォルニア州は2019年に選挙関連の操作されたコンテンツを禁止した最初の州でした。専門家は、カリフォルニア州の技術およびAIに関する提案が全国の立法者のモデルとなることが多いと指摘しています。 AIが世界的に選挙の誤報のリスクを増大させている中で、全国の議員はそのような改ざんされたコンテンツがメディアへの信頼を損なう可能性があることへの懸念から迅速に対処しようとしています。 「総選挙まで50日未満の中で、選挙を混乱させる可能性のある誤解を招くデジタル改変コンテンツを防ぐ緊急の必要性があります」と法律の著者であるアセンブリーメンバーのゲイル・ペレリンは述べています。「カリフォルニア州は、有権者を誤情報で欺こうとするディープフェイク技術の不正使用に対して確固たる立場を取ります。」 ニューサムの行動は、特にXオーナーのイーロン・マスクがシェアした映像に対する対応として、7月に選挙ディープフェイクに対処するという公約を果たしたものです。その映像には副大統領兼民主党大統領候補のカマラ・ハリスの改ざんされた画像が含まれていました。 偶然にも同じ日に、議会のメンバーが選挙ディープフェイクに対処するための連邦立法を発表しました。この法案は、連邦選挙委員会(FEC)に選挙におけるAIの使用を、他の形態の政治的虚偽表示を監督してきた方法に類似して規制する権限を与えるものです。FECは、2月に投票率を抑制するために意図されたAI生成のロボコールを禁止した後、そのような規制措置を検討し始めました。 ニューサムは、カリフォルニア州をAIテクノロジーの早期採用者および規制者として推進し、州がまもなく高速道路の混雑を緩和し、税金の指導を提供するための生成AIツールを導入する可能性があると示唆しています。一方、彼の政権は、採用プロセスにおけるAIの差別と戦うための新しいルールを評価しています。

Sept. 17, 2024, 3 p.m. OpenAIがその『ストロベリー』AIモデルを調査するユーザーを禁止すると脅す

OpenAIはその最新のAIモデル『ストロベリー』ファミリー、特にo1-previewおよびo1-miniバージョンの推論能力について非常に秘密主義的です。先週のリリース以来、同社はモデルの機能を探求しようとするユーザーに警告メールを送っており、これは以前のモデルであるGPT-4oでは見られませんでした。o1モデルは特に、回答を提供する前に系統だった問題解決手法に従うよう設計されています。ユーザーはChatGPTで推論プロセスを表示することを選択できますが、OpenAIは意図的にフィルタリングされた別のAIによって作成されたバージョンのみを提供し、未加工の思考プロセスを隠しています。 この透明性の欠如は、ハッカーやレッドチームのメンバーの興味を引き、脱獄やプロンプトインジェクションなどの技術を使って基礎的な推論を明らかにしようとしています。いくつかの初期の成功例が報告されていますが、確定的なものは出ていません。その間、OpenAIは推論面での掘り下げようとする試みを注意深く監視し、「推論トレース」などの用語を使用するユーザーに警告を発しています。 警告は安全対策を回避するポリシーの違反を強調し、繰り返しの違反はモデルへのアクセスの喪失につながる可能性があると警告しています。Marco Figueroaを含む批評家は、このようなポリシーがモデルの安全性に関する有益な研究を妨げると主張しています。 「LLMでの推論を学ぶ」と題したブログ投稿で、OpenAIは隠された思考の連鎖を監視することでモデルのプロセスに洞察を提供できると説明しています。しかし、彼らはこの情報をユーザーと共有することがユーザーエクスペリエンスと競争優位性の両方を損なう可能性があると考えています。独立したAI研究者のSimon Willisonは透明性の欠如について懸念を表明し、その決定がコミュニティがモデルの機能に関する貴重な洞察を得るのを妨げていると主張しています。全体として、この状況は、独占的な利益とAI開発における透明性の要求との間の継続的な緊張を反映しています。

Sept. 17, 2024, 2:51 p.m. 5人に1人のGPがChatGPTのようなAIを日常業務に利用していることが調査で判明

調査によると、全般医療医(GP)の5分の1が、チャットGPTなどの人工知能(AI)ツールを使用して、診察後の患者の手紙の作成などの業務を支援していることがわかりました。 この結果は、BMJ Health and Care Informatics誌に発表され、1,006人のGPからの回答に基づいています。彼らは、臨床の現場でChatGPT、Bing AI、またはGoogleのGeminiのようなAIチャットボットをどのように使用しているか、そしてそれらがどのような目的に役立っているかについて質問されました。 調査対象者の20%は、実際の診療で生成AIツールを使用していると報告しており、ほぼ3分の1(29%)が患者の診察後の文書作成にこれらのツールを利用している一方で、28%は代替診断の提案に使用していることが判明しました。 さらに、回答者の4分の1は、患者に治療法を提案するためにAIツールを利用していました。このような生成AIアプリケーションは、ChatGPTのように、ソフトウェアに向けられた質問に対して書面での回答を提供することによって機能します。 研究者らは、これらの結果は、特に行政業務や臨床推論の強化において、GPがこれらのツールに価値を見出すことができることを示唆していると結論付けました。 しかし彼らは、患者のプライバシーに対する潜在的なリスクについて懸念を表明し、「生成AIを提供するインターネット企業が収集した情報をどのように利用しているかは不明である」と述べました。 また、「これらのチャットボットに関する規制措置が増加しているが、臨床現場での法制度と実際の適用の間の交差点は不明確なままである」とも指摘しました。 医療防衛組合の医学法律アドバイザーであるエリー・メイン博士は、GPのAIの採用が、正確性の問題や患者の機密性に対する脅威などの課題を引き起こす可能性があると表明しました。 「この研究は興味深く、MDUメンバーへのアドバイスと一致している」とメインはコメントしました。「医療専門家は、直面する要求に対処するために賢い方法を自然に求めます。BMJの研究で示されたアプリケーションに加えて、苦情への回答を作成するためにAIプログラムを使用する医師も見られます。我々はメンバーに、関連する課題、特に正確性の欠如と患者の機密性に対する懸念を強調してアドバイスしています。また、データ保護に関する問題も考慮する必要があります。」 彼女はさらに、「患者の苦情に対して回答する際、AI生成の回答は信頼できそうに聞こえるが、不正確な情報や誤ったガイドラインに言及することがあり、巧みに作られたテキストの中では見つけにくいことがある。医師はAIを倫理的に使用し、関連するガイドラインと規則を遵守することが重要です。この分野は継続的に進化しており、著者と同様に、現在および将来的な医師が自身の診療におけるAI利用の利点とリスクについてより意識を高める必要があると考えています」と付け加えました。

Sept. 17, 2024, 1:29 p.m. MicrosoftとBlackRock、AIデータセンターおよび電力投資のために1000億ドルを調達するための団体を結成

MicrosoftとBlackRockは、人工知能専用のデータセンターの開発のために最大1000億ドルを調達する企業連合に参加しています。この協力関係は、グローバル人工知能インフラストラクチャー投資パートナーシップ(GAIIP)として、火曜日にプレスリリースで発表されました。他の重要な参加者には、BlackRockが買収中のインフラストラクチャー投資家であるGlobal Infrastructure Partners(GIP)や、アラブ首長国連邦に拠点を置くテクノロジー投資家のMGXが含まれています。 MicrosoftのCEOであるサティア・ナデラは、「私たちはAIを活用してイノベーションを促進し、経済のあらゆるセクターで成長を推進することに専念しています」と述べ、このイニシアチブが金融および業界のリーダーを結集して未来の持続可能なインフラストラクチャーを確立することを強調しました。 コンソーシアムの最初の目標は、30億ドルの資本を動員することであり、最終的には借入金を含めて1000億ドルに達することを目指しています。 テック企業は、OpenAIのChatGPTを動作させるような生成的AIモデルを実行できるNvidiaのグラフィックス処理ユニット(GPU)を装備したデータセンターの構築をめぐって激しい競争を繰り広げています。これらのGPUの高い電力消費と増大する需要が、新しい施設の設立においてボトルネックを引き起こしています。 Microsoftの投資は、OpenAIや他のAIクライアントにサービスを提供するAzureパブリッククラウドインフラストラクチャーの拡張に必要な資本支出に追加されます。7月には、Microsoftが第4四半期の資本支出、ファイナンスリースを通じて取得した資産を含む、190億ドルに達したことを報告しました。 今年初め、BlackRockはGIPを30億ドルの現金と約1200万株のBlackRock普通株式で買収する計画を発表しました。BlackRockは先週、この取引が10月1日に完了する見込みがあると発表しました。