6/1 AIが人類滅亡を招く恐れ 専門家が警告🚨

Artificial intelligence could lead to extinction, experts warn
megapx
Artificial intelligence could lead to the extinction of humanity, experts - including the heads of OpenAI and Google Deepmind - have warned. 人工知能が人類の絶滅につながる可能性があると、OpenAIやGoogle Deepmindの責任者を含む専門家が警告している。 Dozens have supported a statement published on the webpage of the Centre for AI Safety. AI安全センターのウェブページに掲載された声明文に、数十人が賛同している。 "Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war" it reads. 声明は、「パンデミックや核戦争といった社会規模のリスクと同様、AIによる絶滅のリスクを低減することを世界的な優先事項とするべきだ」と呼びかけている。 But others say the fears are overblown. 一方で、こうした懸念は大げさだという意見もある。 Sam Altman, chief executive of ChatGPT-maker OpenAI, Demis Hassabis, chief executive of Google DeepMind and Dario Amodei of Anthropic have all supported the statement. 「チャットGPT」を開発したオープンAIのサム・アルトマン最高経営責任者(CEO)、グーグル・ディープマインドのデミス・ハッサビスCEO、アンソロピックのダリオ・アモデイCEOといった、テクノロジー企業のトップも署名している。 The Centre for AI Safety website suggests a number of possible disaster scenarios: 「センター・オブ・AIセーフティー」は、いくつかの惨事シナリオを想定している: ・AIs could be weaponised - for example, drug-discovery tools could be used to build chemical weapons  AIの兵器化:新薬開発ツールが化学兵器の製造に使われるといった可能性 ・AI-generated misinformation could destabilise society and "undermine collective decision-making"  AIで生成された偽情報が社会を不安定化させ、「集団での意思決定に害を及ぼす」可能性 ・The power of AI could become increasingly concentrated in fewer and fewer hands, enabling "regimes to enforce narrow values through pervasive surveillance and oppressive censorship"  AIの力がより少数の人に集中し、国家が「監視と抑圧的な検閲を通じて、狭い価値観を強制」できるようになる可能性 ・Enfeeblement, where humans become dependent on AI "similar to the scenario portrayed in the film Wall-E"  「映画『ウォーリー』で描かれたシナリオのように」、人類がAIに頼って衰退する可能性 Dr Geoffrey Hinton, who issued an earlier warning about risks from super-intelligent AI, has also supported the Centre for AI Safety's call. AIによるリスクを以前から指摘していたジェフリー・ヒントン博士も、この声明を支持している。 Yoshua Bengio, professor of computer science at the university of Montreal, also signed. モントリオール大学のヨシュア・ベンジオ教授(コンピューター科学)も署名している。 Dr Hinton, Prof Bengio and NYU Professor Yann LeCun are often described as the "godfathers of AI" for their groundbreaking work in the field - for which they jointly won the 2018 Turing Award, which recognises outstanding contributions in computer science. ヒントン博士とベンジオ教授、そして米ニューヨーク大学のヤン・ルカン教授は、この領域の先駆者として「AIの父」と呼ばれている。2018年には、コンピューター・サイエンスに目覚ましい貢献をした人に贈られるチューリング賞を受賞している。 But Prof LeCun, who also works at Meta, has said these apocalyptic warnings are overblown tweeting that "the most common reaction by AI researchers to these prophecies of doom is face palming". しかし、メタ社に所属しているルカン教授は、こうしたこの世の終わりのような警告は誇張されすぎているとし、「こうした予言に対するAI研究者の最も一般的な反応は、やれやれと手で顔を覆うことだ」とツイートした。 'Fracturing reality' 「現実を分裂させる」 Many other experts similarly believe that fears of AI wiping out humanity are unrealistic, and a distraction from issues such as bias in systems that are already a problem. 多くの専門家が、AIが人類を滅ぼすという懸念は非現実的で、システム上の偏りなど、すでにある問題から目をそらすものだとしている。 Arvind Narayanan, a computer scientist at Princeton University, has previously told the BBC that sci-fi-like disaster scenarios are unrealistic: "Current AI is nowhere near capable enough for these risks to materialise. As a result, it's distracted attention away from the near-term harms of AI". 米プリンストン大学のアーヴィンド・ナラヤナン氏は以前、BBCの取材で、サイエンスフィクション(SF)のような惨事が起きるシナリオは非現実的だと話していた。「現在のAIの能力は、こうしたリスクを実現するには程遠い。結果として、短期的なAIによる害から関心をそらしてしまっている」 Oxford's Institute for Ethics in AI senior research associate Elizabeth Renieris told BBC News she worried more about risks closer to the present. 英オックスフォード大学AI倫理研究所のエリザベス・レニエリス氏も、もっと現在に近いリスクの方が心配だと語った。 "Advancements in AI will magnify the scale of automated decision-making that is biased, discriminatory, exclusionary or otherwise unfair while also being inscrutable and incontestable," she said. They would "drive an exponential increase in the volume and spread of misinformation, thereby fracturing reality and eroding the public trust, and drive further inequality, particularly for those who remain on the wrong side of the digital divide". 「AIの進歩によって、偏った、差別的な、排除的な、あるいはその他の不公正な自動意思決定の規模が拡大すると同時に、そうした過程が不可解で証明不可能なものになるだろう」と彼女は言う。AIが「偽情報の量と拡散を急加速させ、その結果として現実が分裂し、公の信頼が壊されるだろう。特に、デジタルの分断で間違った側にいる人たちへの不平等が加速するだろう」 Many AI tools essentially "free ride" on the "whole of human experience to date", Ms Renieris said. Many are trained on human-created content, text, art and music they can then imitate - and their creators "have effectively transferred tremendous wealth and power from the public sphere to a small handful of private entities". 多くのAIツールは「これまでの人類の経験」に「ただ乗り」している。AIの多くは、人間が作成したコンテンツや文章、アート、音楽によって訓練され、それを模倣(もほう)する。その結果として、AIの制作者は「莫大な富と権力を公共の場からほんの一握りの私企業に移譲してしまった」。 But Centre for AI Safety director Dan Hendrycks told BBC News future risks and present concerns "shouldn't be viewed antagonistically". しかし、「センター・オブ・AIセーフティー」のダン・ヘンドリクス所長はBBCニュースに対し、未来のリスクと現在の懸念を「相反するものとして見るべきではない」と話した。 "Addressing some of the issues today can be useful for addressing many of the later risks tomorrow," he said. 「今日の問題を解決することは、多くの未来のリスクの解決にも役立つ」と彼はいう。 Superintelligence efforts スーパーインテリジェンス開発 Media coverage of the supposed "existential" threat from AI has snowballed since March 2023 when experts, including Tesla boss Elon Musk, signed an open letter urging a halt to the development of the next generation of AI technology. 米テスラのイーロン・マスク氏といった専門家が、今年3月、次世代AIの開発を止めるよう求める公開書簡を発表して以来、AIによる「絶滅」の脅威に関する報道は加速している。 That letter asked if we should "develop non-human minds that might eventually outnumber, outsmart, obsolete and replace us". この公開書簡では、「いずれ我々を数で超え、能力で超え、我々を陳腐な存在にし、我々に取って代わるかもしれない非人間的な知能を開発する」べきなのかと疑問を呈している。 In contrast, the new campaign has a very short statement, designed to "open up discussion". これに対し、今回の声明は非常に短いもので、「対話を広げる」のが目的だとしている。 The statement compares the risk to that posed by nuclear war. In a blog post OpenAI recently suggested superintelligence might be regulated in a similar way to nuclear energy: "We are likely to eventually need something like an IAEA [International Atomic Energy Agency] for superintelligence efforts" the firm wrote. 声明では、AIによるリスクを核戦争と比較している。オープンAIも最近公開したブログ投稿で、スーパーインテリジェンスは原子力と似た方法で規制されるかもしれないと示唆している。「我々はやがて、スーパーインテリジェンス開発について国際原子力機関(IAEA)のようなものが必要になるかもしれない」 'Be reassured' 「安心してほしい」 Both Sam Altman and Google chief executive Sundar Pichai are among technology leaders to have discussed AI regulation recently with the prime minister. オープンAIのアルトマンCEOやグーグルのスンダル・ピチャイCEOらは先に、AI規制についてイギリスのリシ・スーナク首相と意見を交わしている。 Speaking to reporters about the latest warning over AI risk, Rishi Sunak stressed the benefits to the economy and society. スーナク首相はこうしたAIリスクに関する警告について経済や社会への利益もあると強調した。 "You've seen that recently it was helping paralysed people to walk, discovering new antibiotics, but we need to make sure this is done in a way that is safe and secure," he said. 「最近では、AIが半身不随の人の歩行を助けたり、新しい抗生物質を発見したりしている。こうしたことが安全で確実な方法で行われるようにする必要がある」 "Now that's why I met last week with CEOs of major AI companies to discuss what are the guardrails that we need to put in place, what's the type of regulation that should be put in place to keep us safe. 「今だからこそ、私は先週、主要なAI企業のCEOと会い、私たちの安全を守るために必要なガードレールとは何か、どのような規制を設けるべきかについて議論したのだ」。 "People will be concerned by the reports that AI poses existential risks, like pandemics or nuclear wars. 「人々は、AIがパンデミックや核戦争のような実存的なリスクをもたらすという報道に、懸念を抱くだろう」。 "I want them to be reassured that the government is looking very carefully at this." 「国民には、政府が非常に慎重に検討しているのだと安心してもらいたい」。 He had discussed the issue recently with other leaders, at the G7 summit of leading industrialised nations, Mr Sunak said, and would raise it again in the US soon. スーナク氏は、先に広島で行われた主要7カ国首脳会議(G7サミット)でも、AIについて協議した。また、近くアメリカを訪問してこの問題を話し合うと言う。 The G7 has recently created a working group on AI. G7は最近、AIに関する作業部会を設立した。 ーーー 覚えておきたい単語✏️ Extinction - 絶滅 Mitigating - 緩和する Weaponised - 兵器化された Misinformation - 誤情報 Destabilise - 不安定にする Pervasive surveillance - 広範囲にわたる監視 Oppressive censorship - 弾圧的な検閲 Enfeeblement - 衰弱 Groundbreaking - 画期的な Apocalyptic - 終末の、大災害の Prophecies - 予言 Eroding public trust - 公共の信頼の侵食 Incontestable - 異議の申し立てができない Digital divide - デジタル格差 Antagonistically - 敵対的に Superintelligence - 超知性 Obsolete - 廃れた Regulation - 規制
Like
Haha
Wow
20
Comment
encourage first comment
Do you have something in mind? Let's post it out and share it with everyone!