OpenAI представила новую модель искусственного интеллекта GPT-4o
Новое масштабное обновление позволит общаться с AI голосом, а искусственный интеллект сможет "видеть" мир вокруг с помощью камеры, помогать решать задачи, рабоать переводчиком в онлайн-режиме, читать сказки на ночь и считывать ваши эмоции по выражению лицат.
Технический директор компании Мира Мурати заявила, что новая модель «намного быстрее» прошлой версии, а также обладает улучшенными возможностями работы с текстом, видео и аудио. OpenAI заявляют, что в конечном итоге хотят разрешить пользователям общаться с ChatGPT в видеочатах. Новая модель поддерживает 50 различных языков, включая русский. Мурати во время презентации заявила, что API OpenAI сделают общедоступным, чтобы разработчики могли начать создавать приложения с использованием новой модели уже сегодня.
Новая модель способна «воспринимать эмоции», анализируя выражение лица пользователя, а также работать со звуком. Во время презентации разработчики активно общались с моделью, а также показали как они могут беседовать между собой с двух разных устройств. Новая модель реагирует на речь пользователей «всего за 232 миллисекунды, в среднем за 320 миллисекунд, что аналогично времени реакции человека во время разговора».
Во время презентации GPT-4o продемонстрировал способность рассказывать сказки на ночь, меняя тон голоса на более драматичный или роботизированный по просьбе юзера. При этом модель может работать как переводчик, работая только в аудиорежиме — во время трансляции она помогла общаться двум сотрудникам компании, которые говорили между собой на английском и итальянском. Разработчики также продемонстрировали способность модели решать математические уравнения и помогать писать код — во время презентации она поэтапно помогла решить задачу, по сути выступив в роли учителя.
Читайте ещё:Илон Маск заявил, что голливудских актеров вынуждают публично поддерживать Харрис
Виктория Яновская