Джерело зображення: створено інструментом Unbounded AI
Відповідно до останньої заяви генерального директора стартапу зі штучного інтелекту OpenAI, OpenAI досі не навчився GPT-5.
Про це заявив генеральний директор OpenAI Сем Альтман на конференції, організованій індійською "Economic Times" у середу (7 червня). «Нам потрібно зробити багато роботи, перш ніж ми зможемо запустити цю модель».
«Ми працюємо над новими ідеями, які, на нашу думку, потрібні, але ми ще не близькі до початку (навчання GPT-5)».
Буквально кілька місяців тому, після того як багато керівників галузі та науковців висловили занепокоєння щодо швидкого розвитку великомасштабної мовної моделі Сема Альтмана, стартап зі штучним інтелектом пообіцяв, що не буде розробляти GPT-спадкоємця GPT-4 для " якийсь час». -5.
Не буду робити це найближчим часом
Наприкінці березня понад 1100 керівників галузі та експертів, включаючи генерального директора Tesla Ілона Маска та співзасновника Apple Стіва Возняка, підписали відкритий лист із закликом «усі лабораторії штучного інтелекту негайно призупинити навчання систем штучного інтелекту, потужніших за GPT-4 для не менше 6 місяців».
Відповідаючи на лист через кілька тижнів, Альтман сказав, що в ньому «залишено більшість технічних деталей, на які нам потрібен мораторій». Хоча Альтман погоджується, що обережність і дедалі суворіший підхід до безпеки є важливими, він не визнає, що лист є найкращим способом вирішення проблеми. Він також наполягав на тому, що OpenAI не почав навчання GPT-5 і не планує робити це «деякий час».
У середу Альтмам заперечив деякі з найголосніших занепокоєнь щодо штучного інтелекту, заявивши, що стартап вже оцінює потенційні небезпеки за допомогою більш значущих заходів, таких як зовнішні аудити, ред-теамінг і тестування безпеки.
Red-teaming — це метод тестування, який стосується практики суворої перевірки планів, політик, установ і припущень за допомогою змагального підходу. OpenAI використовує його, щоб виявити небезпеки в мовних моделях і пом’якшити їх.
Альтман також додав: «Коли ми закінчили GPT-4, нам знадобилося більше шести місяців, щоб бути готовими до його випуску.» Він мав на увазі показати, що навіть якщо компанія завершила навчання GPT-5, це займе деякий час. Готовий це опублікувати.
У попередньому інтерв’ю Альтман також сказав: «Єдині регулятивні вимоги, які ми маємо, стосуються нас самих і великих компаній».
тур по країні
Поїздка Альтмана до Індії свідчить про його активну участь у зустрічах із законодавцями та діячами галузі в усьому світі та зміцненні довіри.
На зустрічі Альтман також активно закликав законодавців серйозно розглянути потенційне зловживання та інші негативні наслідки штучного інтелекту, щоб створити контрзаходи для мінімізації аварій.
У вівторок (6 червня) Альтман під час свого візиту до ОАЕ запропонував створити організацію, схожу на МАГАТЕ, для нагляду за ШІ. МАГАТЕ, засноване в 1957 році, є незалежною міжурядовою міжнародною організацією, яка займається мирним розвитком атомної енергетики.
Альтман зазначив, що МАГАТЕ є хорошим прикладом, оскільки перед лицем дуже небезпечної технології, після встановлення захисних заходів, воно може враховувати як можливості, так і безпеку.
Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Генеральний директор OpenAI випускає «заспокійливу таблетку»: GPT5 не навчатимуть у короткостроковій перспективі
**Джерело: **Фінансова асоціація
Редагувати Чжоу Цзиі
Відповідно до останньої заяви генерального директора стартапу зі штучного інтелекту OpenAI, OpenAI досі не навчився GPT-5.
Про це заявив генеральний директор OpenAI Сем Альтман на конференції, організованій індійською "Economic Times" у середу (7 червня). «Нам потрібно зробити багато роботи, перш ніж ми зможемо запустити цю модель».
«Ми працюємо над новими ідеями, які, на нашу думку, потрібні, але ми ще не близькі до початку (навчання GPT-5)».
Буквально кілька місяців тому, після того як багато керівників галузі та науковців висловили занепокоєння щодо швидкого розвитку великомасштабної мовної моделі Сема Альтмана, стартап зі штучним інтелектом пообіцяв, що не буде розробляти GPT-спадкоємця GPT-4 для " якийсь час». -5.
Не буду робити це найближчим часом
Наприкінці березня понад 1100 керівників галузі та експертів, включаючи генерального директора Tesla Ілона Маска та співзасновника Apple Стіва Возняка, підписали відкритий лист із закликом «усі лабораторії штучного інтелекту негайно призупинити навчання систем штучного інтелекту, потужніших за GPT-4 для не менше 6 місяців».
Відповідаючи на лист через кілька тижнів, Альтман сказав, що в ньому «залишено більшість технічних деталей, на які нам потрібен мораторій». Хоча Альтман погоджується, що обережність і дедалі суворіший підхід до безпеки є важливими, він не визнає, що лист є найкращим способом вирішення проблеми. Він також наполягав на тому, що OpenAI не почав навчання GPT-5 і не планує робити це «деякий час».
У середу Альтмам заперечив деякі з найголосніших занепокоєнь щодо штучного інтелекту, заявивши, що стартап вже оцінює потенційні небезпеки за допомогою більш значущих заходів, таких як зовнішні аудити, ред-теамінг і тестування безпеки.
Red-teaming — це метод тестування, який стосується практики суворої перевірки планів, політик, установ і припущень за допомогою змагального підходу. OpenAI використовує його, щоб виявити небезпеки в мовних моделях і пом’якшити їх.
Альтман також додав: «Коли ми закінчили GPT-4, нам знадобилося більше шести місяців, щоб бути готовими до його випуску.» Він мав на увазі показати, що навіть якщо компанія завершила навчання GPT-5, це займе деякий час. Готовий це опублікувати.
У попередньому інтерв’ю Альтман також сказав: «Єдині регулятивні вимоги, які ми маємо, стосуються нас самих і великих компаній».
тур по країні
Поїздка Альтмана до Індії свідчить про його активну участь у зустрічах із законодавцями та діячами галузі в усьому світі та зміцненні довіри.
На зустрічі Альтман також активно закликав законодавців серйозно розглянути потенційне зловживання та інші негативні наслідки штучного інтелекту, щоб створити контрзаходи для мінімізації аварій.
У вівторок (6 червня) Альтман під час свого візиту до ОАЕ запропонував створити організацію, схожу на МАГАТЕ, для нагляду за ШІ. МАГАТЕ, засноване в 1957 році, є незалежною міжурядовою міжнародною організацією, яка займається мирним розвитком атомної енергетики.
Альтман зазначив, що МАГАТЕ є хорошим прикладом, оскільки перед лицем дуже небезпечної технології, після встановлення захисних заходів, воно може враховувати як можливості, так і безпеку.