**出典: **金融協会**周子怡を編集** *画像の出典: Unbounded AI ツールによって生成*人工知能スタートアップ OpenAI の CEO の最新の声明によると、OpenAI はまだ GPT-5 をトレーニングしていません。OpenAIの最高経営責任者(CEO)サム・アルトマン氏は6月7日水曜日、インドの「エコノミック・タイムズ」主催のカンファレンスで語った。 「このモデルを発売する前に、やるべきことがたくさんあります。」「私たちは必要と思われる新しいアイデアに取り組んでいますが、確かにまだ(GPT-5のトレーニングを)開始する段階には近づいていません。」ほんの数カ月前、多くの業界幹部や学者がサム・アルトマンの大規模言語モデルの急速な開発に懸念を表明した後、このAIスタートアップは当時、「GPT-4の後継となるGPTを開発しない」と約束した。いつか」。 -5。## **すぐには行われません**3月末、テスラのCEOイーロン・マスク氏やアップル共同創業者のスティーブ・ウォズニアック氏を含む業界幹部や専門家1100人以上が公開書簡に署名し、「すべてのAI研究所はGPT-4より強力なAIシステムのトレーニングを直ちに中止する」と呼びかけた。少なくとも6か月は。」数週間後、この書簡に返信してアルトマン氏は、「一時停止が必要な技術的な詳細のほとんどが省略されている」と述べた。アルトマン氏は、セキュリティに対する警戒とますます厳格なアプローチが重要であることに同意する一方で、この書簡が問題に対処する最善の方法であるとは認めていない。同氏はまた、OpenAIはGPT-5のトレーニングを開始しておらず、「しばらくは」その予定もないと主張した。アルトマム氏は水曜日、人工知能に関する最も声高な懸念の一部に反論し、このスタートアップはすでに外部監査、レッドチーム、セキュリティテストなどのより有意義な手段を通じて潜在的な危険性を評価していると述べた。レッドチーム化とは、敵対的なアプローチを採用することによって、計画、ポリシー、制度、仮定に厳密に挑戦する実践を指すテスト手法であり、OpenAI は言語モデルの危険性を発見し、それらを軽減するために使用します。アルトマン氏はまた、「GPT-4を完成させたとき、リリースの準備が整うまでに6か月以上かかった」と付け加え、同社がGPT-5のトレーニングを完了したとしても、それには時間がかかることを示したつもりだった。 . 公開する準備ができました。アルトマン氏は以前のインタビューで、「われわれが定めている唯一の規制要件は、われわれ自身と大企業に対するものだ」とも述べた。## **多国間ツアー**アルトマン氏のインド訪問は、世界中の議員や業界関係者との会合や信頼構築への積極的な参加の一歩を反映している。アルトマン氏はまた、会議で、事故を最小限に抑えるための対策を立てるために、人工知能の潜在的な誤用やその他の悪影響について真剣に検討するよう議員らに積極的に促した。火曜日(6月6日)、アルトマン氏はUAE訪問中に**AIを監督するIAEAのような組織の設立**を提案した。 1957 年に設立された IAEA は、原子力エネルギーの平和的開発に専念する独立した政府間国際機関です。アルトマン氏は、「IAEAが良い例だ。非常に危険な技術に直面しても、保護措置を講じた上で、機会と安全性の両方を考慮に入れることができる」と指摘した。
OpenAI CEOが「安心薬」をリリース:GPT5は短期的にはトレーニングされない
**出典: **金融協会
周子怡を編集
人工知能スタートアップ OpenAI の CEO の最新の声明によると、OpenAI はまだ GPT-5 をトレーニングしていません。
OpenAIの最高経営責任者(CEO)サム・アルトマン氏は6月7日水曜日、インドの「エコノミック・タイムズ」主催のカンファレンスで語った。 「このモデルを発売する前に、やるべきことがたくさんあります。」
「私たちは必要と思われる新しいアイデアに取り組んでいますが、確かにまだ(GPT-5のトレーニングを)開始する段階には近づいていません。」
ほんの数カ月前、多くの業界幹部や学者がサム・アルトマンの大規模言語モデルの急速な開発に懸念を表明した後、このAIスタートアップは当時、「GPT-4の後継となるGPTを開発しない」と約束した。いつか」。 -5。
すぐには行われません
3月末、テスラのCEOイーロン・マスク氏やアップル共同創業者のスティーブ・ウォズニアック氏を含む業界幹部や専門家1100人以上が公開書簡に署名し、「すべてのAI研究所はGPT-4より強力なAIシステムのトレーニングを直ちに中止する」と呼びかけた。少なくとも6か月は。」
数週間後、この書簡に返信してアルトマン氏は、「一時停止が必要な技術的な詳細のほとんどが省略されている」と述べた。アルトマン氏は、セキュリティに対する警戒とますます厳格なアプローチが重要であることに同意する一方で、この書簡が問題に対処する最善の方法であるとは認めていない。同氏はまた、OpenAIはGPT-5のトレーニングを開始しておらず、「しばらくは」その予定もないと主張した。
アルトマム氏は水曜日、人工知能に関する最も声高な懸念の一部に反論し、このスタートアップはすでに外部監査、レッドチーム、セキュリティテストなどのより有意義な手段を通じて潜在的な危険性を評価していると述べた。
レッドチーム化とは、敵対的なアプローチを採用することによって、計画、ポリシー、制度、仮定に厳密に挑戦する実践を指すテスト手法であり、OpenAI は言語モデルの危険性を発見し、それらを軽減するために使用します。
アルトマン氏はまた、「GPT-4を完成させたとき、リリースの準備が整うまでに6か月以上かかった」と付け加え、同社がGPT-5のトレーニングを完了したとしても、それには時間がかかることを示したつもりだった。 . 公開する準備ができました。
アルトマン氏は以前のインタビューで、「われわれが定めている唯一の規制要件は、われわれ自身と大企業に対するものだ」とも述べた。
多国間ツアー
アルトマン氏のインド訪問は、世界中の議員や業界関係者との会合や信頼構築への積極的な参加の一歩を反映している。
アルトマン氏はまた、会議で、事故を最小限に抑えるための対策を立てるために、人工知能の潜在的な誤用やその他の悪影響について真剣に検討するよう議員らに積極的に促した。
火曜日(6月6日)、アルトマン氏はUAE訪問中にAIを監督するIAEAのような組織の設立を提案した。 1957 年に設立された IAEA は、原子力エネルギーの平和的開発に専念する独立した政府間国際機関です。
アルトマン氏は、「IAEAが良い例だ。非常に危険な技術に直面しても、保護措置を講じた上で、機会と安全性の両方を考慮に入れることができる」と指摘した。