Эксперт предупреждает, что OpenAI демонстрирует ‘очень опасный менталитет" в отношении безопасности

Эксперт предупреждает, что OpenAI демонстрирует ‘очень опасный менталитет" в отношении безопасности

      Пекселс

      

      

      

       Эксперт по искусственному интеллекту обвинил OpenAI в том, что она переписывает свою историю и чрезмерно пренебрегает вопросами безопасности.

      Бывший исследователь политики OpenAI Майлз Брандейдж раскритиковал недавний документ компании по безопасности и согласованию, опубликованный на этой неделе. В документе OpenAI описывается как стремящийся к созданию искусственного интеллекта общего назначения (AGI) многими маленькими шагами, а не совершающий “один гигантский скачок”, говорится, что процесс итеративного развертывания позволит ему выявлять проблемы безопасности и изучать потенциал неправильного использования ИИ на каждом этапе.

      Среди многочисленных критических замечаний в адрес технологий искусственного интеллекта, таких как ChatGPT, эксперты обеспокоены тем, что чат-боты будут предоставлять неточную информацию о здоровье и безопасности (например, печально известная проблема с функцией искусственного поиска Google, которая заставляла людей есть камни) и что они могут быть использованы для политических манипуляций, дезинформации и мошенничества. OpenAI, в частности, подверглась критике за отсутствие прозрачности в разработке своих моделей искусственного интеллекта, которые могут содержать конфиденциальные персональные данные.

      Публикация документа OpenAI на этой неделе, по-видимому, является ответом на эти опасения, и в документе подразумевается, что разработка предыдущей модели GPT-2 была “прерывистой” и что изначально она не была выпущена из-за “опасений по поводу вредоносных приложений”, но теперь компания будет продвигаться к более эффективной разработке. вместо этого используется принцип итеративной разработки. Но Брандейдж утверждает, что документ изменяет повествование и не является точным описанием истории развития искусственного интеллекта в OpenAI.

      “Выпуск OpenAI GPT-2, в котором я принимал участие, был на 100% последовательным и предвосхитил текущую философию OpenAI, основанную на итеративном развертывании”, - написал Брандейдж на X. “Модель выпускалась поэтапно, на каждом этапе делились уроками. Многие эксперты по безопасности в то время благодарили нас за это предостережение”.

      Брандейдж также раскритиковал очевидный подход компании к оценке рисков, основанный на этом документе, написав, что “Создается впечатление, что в этом разделе, где проблемы носят панический характер, налагается бремя доказывания + вам нужны неопровержимые доказательства неминуемой опасности, чтобы принять меры в отношении них – в противном случае просто продолжайте поставки. Это очень опасный образ мышления для продвинутых систем искусственного интеллекта”.

      Это происходит в то время, когда OpenAI подвергается все более пристальному вниманию из-за обвинений в том, что он отдает приоритет “блестящим продуктам”, а не безопасности.

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

       Джорджина уже шесть лет работает в Digital Trends space writer, освещая исследования человеком космоса, планетарную безопасность.…

      

      

      

      

       Компания Perplexity предлагает Gemini и ChatGPT фантастическую бесплатную услугу для чат-бота с искусственным интеллектом

      

       Что, если вы попросите чат-бота с искусственным интеллектом выполнить поиск в Интернете, найти определенный источник, а затем создать подробный отчет на основе всей собранной информации? Что ж, Gemini может делать это за 20 долларов в месяц. Или за 200 долларов в месяц, если вы предпочитаете общаться в чате.

      Perplexity будет делать это бесплатно. То есть несколько раз в день. Perplexity называет свой новейший инструмент "Глубокое исследование". Так же, как OpenAI. И Google Gemini перед этим.

      

       Подробнее

      

      

      

       Маск не будет гоняться за OpenAI со своими миллиардами, пока он остается некоммерческим.

      

       Илон Маск был одним из основателей OpenAI, но ушел из него еще до того, как ChatGPT стал популярным. Миллиардер утверждает, что его не устраивал поворот некоммерческой организации к бизнес-модели, ориентированной на получение прибыли. Несколько дней назад Маск подал заявку на покупку некоммерческого подразделения OpenAI за 97,4 миллиарда долларов, но теперь говорит, что откажется от этого предложения, если гигант искусственного интеллекта откажется от своих коммерческих амбиций.

      “Если правление OpenAI будет готово сохранить миссию благотворительной организации и согласится снять со своих активов гриф "продается", приостановив их конвертацию, Маск отзовет заявку”, - говорится в судебном иске, представленном адвокатом миллиардера, сообщает Reuters.

      

       Подробнее

      

      

      

       OpenAI прекращает выпуск своей модели o3 и заменит ее на "GPT-5’

      

       Генеральный директор OpenAI Сэм Альтман объявил в среду в X post, что компания фактически отказывается от модели o3 в пользу "упрощенной" GPT-5, которая будет выпущена в ближайшие месяцы.

      https://x.com/sama/status/1889755723078443244

      

       Подробнее

Эксперт предупреждает, что OpenAI демонстрирует ‘очень опасный менталитет" в отношении безопасности Эксперт предупреждает, что OpenAI демонстрирует ‘очень опасный менталитет" в отношении безопасности Эксперт предупреждает, что OpenAI демонстрирует ‘очень опасный менталитет" в отношении безопасности Эксперт предупреждает, что OpenAI демонстрирует ‘очень опасный менталитет" в отношении безопасности Эксперт предупреждает, что OpenAI демонстрирует ‘очень опасный менталитет" в отношении безопасности

Другие статьи

Концовка "Микки 17", объясненная Концовка "Микки 17", объясненная Вышел научно-фантастический комедийный фильм Пон Чжун Хо "Микки 17", представляющий собой вдумчивую историю, которая намекает на мрачное будущее человечества и будущее Бонга вместе с франшизой. iPhone 17 Air может произвести фурор как самый тонкий телефон в мире iPhone 17 Air может произвести фурор как самый тонкий телефон в мире Согласно свежей утечке, грядущий iPhone 17 Air вполне может стать самым тонким телефоном в мире с толщиной всего 5,5 мм, когда он дебютирует позже в этом году. Утечка информации о камере Honor Magic V4 намекает на еще один критерий - возможность установки складной Утечка информации о камере Honor Magic V4 намекает на еще один критерий - возможность установки складной Компания-производитель раскрыла технические характеристики камеры для предстоящего Honor Magic V4, и они звучат довольно безумно. Instagram скоро может стать еще более хаотичным из-за чатов сообщества Instagram скоро может стать еще более хаотичным из-за чатов сообщества Meta, по-видимому, планирует превратить Instagram в еще более популярную платформу с новой функцией общения в сообществе, аналогичной Telegram и Discord. 3 недооцененных фильма Netflix, которые вам стоит посмотреть в эти выходные (7-9 марта) 3 недооцененных фильма Netflix, которые вам стоит посмотреть в эти выходные (7-9 марта) Хотите посмотреть недооцененные фильмы в эти выходные? У Netflix есть множество интересных предложений, в том числе инди-драмы, уникальные антологии и захватывающие фильмы. Кроссворд NYT: ответы на пятницу, 7 марта Кроссворд NYT: ответы на пятницу, 7 марта Разгадать кроссворд в New York Times может быть непросто, даже если это не воскресный выпуск! Если вы застряли, мы готовы помочь вам с сегодняшними подсказками и ответами.

Эксперт предупреждает, что OpenAI демонстрирует ‘очень опасный менталитет" в отношении безопасности

Бывший исследователь политики OpenAI Майлз Брандейдж раскритиковал OpenAI за то, что она переписала свою историю и чрезмерно пренебрегла соображениями безопасности.