lang icon English

All
Popular
Aug. 27, 2024, 4 a.m. 専門家が警告:AIがいつかパンデミックを引き起こす可能性

生物データを元に訓練された専門的なAIモデルの最近の進展は、ワクチン開発、病気治療、作物工学に革命をもたらす可能性があります。しかし、これらのモデルは安全な解決策を設計するために有害な要素を理解する必要があるため、リスクももたらします。この懸念に対処するために、専門家たちは政府に対して先進的な生物モデルに対する監視と規制を実施するよう求めています。Science誌に発表された政策論文の著者たちは、AIシステムがパンデミックを引き起こす病原体を設計する潜在的な脅威を軽減するためにガバナンスシステムの確立を提唱しています。生物兵器の歴史は、有効な規制の重要性を思い出させます。生物兵器禁止条約がこの問題に対処することを目的としていた一方で、強力なAIシステムの出現は新たな課題を生み出しています。AIモデルは、悪意のある行為者や善意の研究者の能力を高めるため、計画を立て、構造化された政府の監視を確立することが重要です。著者たちは、生物AIモデルのパンデミックレベルのリスクを評価するために、機械学習、感染症、および倫理の専門家と協力して義務的なスクリーニング要件を提案しています。代理評価や制限されたアクセスも、これらのモデルに関連するリスクを管理するために使用できます。生物AIが引き起こす脅威が世界的なものであるため、国際的な協力が必要です。政策の調和が望ましいが、先進的なAI技術を持つ国々は、国際的な一貫性を犠牲にしてでも効果的な評価を優先するべきです。

Aug. 27, 2024, 2:30 a.m. AI厄災論者が注目を浴びた瞬間

2016年、AI安全対策コミュニティは小規模で、50人程度の人々から成り立ち、正統な分野というよりもSFサブカルチャーのようでした。しかし、ディープラーニング革命が進むにつれて、AIの危険性を懸念する人々が増えていきました。2022年にChatGPTがリリースされると、AIリスクの専門家たちは文化的に注目を集め、一般市民や政策立案者にその懸念を聞いてもらう機会を得ました。しかし、時間と共に一般の関心は薄れ、AI安全コミュニティの影響力は一部失われました。それでもなお、AIリスクの専門家たちは、大手AI研究機関での権力の位置を確保し、法制に関する意見を反映させるなどの成功を収めました。しかし、内部紛争や統治問題が彼らの努力を妨げ、コミュニティ内でのフラストレーションと士気の低下を引き起こしました。AIの未来は依然として不確かであり、専門家たちはAI分野における目標と統治に関する重要な教訓を学びました。

Aug. 27, 2024, 1:46 a.m. 予測: 今後3年間でNvidiaを超える価値を持つ3つの人工知能(AI)株

Nvidiaは、AI関連製品およびサービスの高い需要により、急速な成長を遂げました。しかし、次の3年間でNvidiaの価値を超える可能性のある他の企業も存在します。 1

Aug. 26, 2024, 10 p.m. Apple、新たなモバイルコマースのフロンティアを目指しAI競争に参入

Appleは、デジタルコマースを革命する可能性のある野心的な人工知能(AI)イニシアチブ「Apple Intelligence」を発表する予定です。Google、Microsoft、Metaなどの他の大手テクノロジー企業がAIを自社プラットフォームに統合する中、AppleもついにAI分野に進出します。「Apple Intelligence」の中心となるのは、OpenAIとの提携による強化版のSiriです。このAI機能はiOS 18で初登場し、9月に新しいiPhoneモデルと同時に発売されます。AI強化機能には、自然言語処理の改善、AI強化の執筆ツール、文脈に基づいた返信の提案、メールの要約、リアルタイムの電話通話の文字起こしなどが含まれます。将来的な機能には、「Image Playground」と呼ばれるAIを活用した画像作成および編集ツールや、「Genmoji」と呼ばれるカスタム絵文字作成ツールが含まれます。AppleのAI統合は、パーソナライズされたショッピング体験を提供し、AI駆動の予算アドバイスや支出分析を備えたApple Payの強化により、モバイルコマースを革命する可能性があります。しかし、AI機能のための個人データ収集に伴うプライバシーの懸念が生じます。Appleの提案された解決策には、デバイス上の処理とSiriの活動に対する新しい視覚的キューが含まれます。成功すれば、AppleのAIイニシアチブは新たな収益源を生み出し、小売およびマーケティングの風景を変える可能性があり、パーソナライズされたAIの推薦が従来の広告方法に取って代わる可能性があります。Apple Intelligenceの成功は、技術的な能力、ユーザーの信頼、および倫理的考慮に依存します。AI成長戦略にコミットする他の企業も追随すると予想されており、テック業界でエキサイティングな開発が期待されています。

Aug. 26, 2024, 4:11 p.m. カリフォルニアのAI法案がシリコンバレーで議論を巻き起こし、いくつかのテックジャイアントはこれをイノベーションへの脅威と呼ぶ

カリフォルニアの革新的なAI法案がAIの先駆者たちの間で争いを引き起こしている。この法案、SB 1047は、1億ドル以上を費やして作成されたAIモデルの開発者に責任を持たせることを目指している。これには安全性テストの要件、保護策の実施、および深刻な害や広範な損害を引き起こすAIモデルに対して州の司法長官が行動を起こす能力が含まれている。この法案はまた、第三者監査、キルスイッチ、および内部告発者の保護を提案している。法案の共著者である州上院議員スコット・ウィーナーは、これに反対する者たちを恐怖を煽っているとして非難しながらも、それを擁護した。この法案は州上院を通過し、州議会での投票を待ってから最終投票のために再び上院に戻る予定である。ガバナーギャビン・ニューサムの立場は不明である。注目すべきは、エロン・マスクとアンソロピックがこの法案を支持している一方で、OpenAIはAI規制を連邦の問題と考えて反対していることだ。グーグル、メタ、アンドリーセン・ホロウィッツ、その他の著名な人物たちはこの法案がイノベーションと研究を脅かすと考えている。ウィーナーは連邦規制を歓迎するが、議会の行動の欠如を認識している。この法案が可決されれば、SB 1047は米国で最初の実質的なAI規制となる可能性がある。

Aug. 26, 2024, 3:15 p.m. AIの潜在的な壊滅的危険を減らすことを目指した画期的な法案は、命を救うか、イノベーションを阻害するかのいずれかです

スコット・ウィーナー州上院議員によって提案されたカリフォルニア州上院法案1047は、大規模モデルを構築するAI企業に安全性テストを義務付ける革新的な提案です。「先端人工知能モデルのための安全で安全なイノベーション法」として知られるこの法案は、シリコンバレーからの反対やイノベーションの阻害に関する懸念から広く注目を集めています。OpenAIを含む他のAI開発者は、AI規制は連邦政府に任せるべきであり、法案が施行されれば企業がカリフォルニアを離れる可能性があると主張しています。業界の批判に応じた一部の修正点にもかかわらず、ウィーナーはこの法案がイノベーションを促進しつつ強力な技術の持つ固有のリスクに対処するバランスを取っていると主張しています。提案された法律は、企業が「完全停止」機能の確立、リスクを解消するための技術計画の策定、および第三者による監査を受けるなどの安全対策を実施することを要求しています。不遵守はカリフォルニア州検事総長への報告義務と民事罰をもたらす可能性があります。批評家はこの法案が負担の多い義務を課していると主張し、支持者は進歩を妨げることなくAIの安全性を促進していると述べています。法案は現在、州議会での投票を待っており、可決された場合はガビン・ニューサム州知事の最終承認を受けることになります。

Aug. 26, 2024, 12:17 p.m. 二党の下院法案はAI研究開発における多様な人材確保を目指す

新しい二党の下院法案が導入され、国家科学財団(NSF)およびその他の関連する連邦機関が、歴史的に黒人大学、部族大学、そして少数派に仕える機関に対して人工知能(AI)の研究開発資金を提供することを要求しています。 バレリー・フーシー(D-N