Деловой, научно-технический журнал

OpenAI выпускает инструмент обнаружения искусственного интеллекта

Новый классификатор текста AI, запущенный компанией OpenAI, призван, хотя бы частично развеять опасения в том, что ChatGPT является отличным инструментом для мошенников и может помешать обучению школьников и студентов. OpenAI предупреждает, что его новый инструмент, как и другие уже доступные, не является надежным. Об этом заявил Ян Лейке, глава группы согласования OpenAI, которой поручено сделать её системы более безопасными.

Подростки и студенты колледжей были среди миллионов людей, которые начали экспериментировать с ChatGPT после того, как 30 ноября 2022 года он был запущен в качестве бесплатного приложения на веб-сайте OpenAI. И хотя многие нашли способы использовать его творчески и безвредно, легкость, с которой он мог отвечать на вопросы домашнего теста и помогать с другими заданиями, вызвала сильные опасения среди многих преподавателей.

Высшие учебные заведения по всему миру также начали обсуждать ответственное использование технологии искусственного интеллекта. Sciences Po, один из самых престижных университетов Франции, запретил его использование на прошлой неделе и предупредил, что любой, кто тайно использует ChatGPT и другие инструменты искусственного интеллекта для создания письменных или устных работ, может быть исключен из Sciences Po.

В ответ на негативную реакцию OpenAI заявила, что уже несколько недель работает над созданием новых рекомендаций, которые помогут преподавателям. Министр цифровой экономики Франции Жан-Ноэль Барро недавно встретился в Калифорнии с руководителями OpenAI, в том числе с генеральным директором Сэмом Альтманом, а неделю спустя заявил аудитории на Всемирном экономическом форуме в Давосе, что он с оптимизмом смотрит на эту технологию.

Несмотря на то, что новый инструмент OpenAI не даёт абсолютную гарантию обнаружения текстов, созданных ChatGPT, в заявлении компании говорится, что помимо предотвращения плагиата, он может помочь обнаружить автоматизированные кампании по дезинформации и другое неправомерное использование искусственного интеллекта для имитации людей.

Наши партнёры

    

 

   

 

   

  

  

   

 

Вход на сайт