Microsoft заставила ИИ проверять друг друга в исследованиях Copilot
Читать в полной версииMicrosoft предложила для помощника в исследованиях Copilot Researcher возможность использовать по нескольку моделей искусственного интеллекта в рамках одного рабочего процесса. Стартовало также развёртывание ИИ-агента Copilot Cowork.
Новая функция «Критика» (Critique) ИИ-агента Copilot Researcher позволяет запрашивать результаты одновременно у двух моделей: OpenAI GPT и Anthropic Claude. Первая генерирует ответ, а вторая проверяет результат на точность; в перспективе этот рабочий процесс сделают двунаправленным — GPT также сможет проверять черновики ответов Claude. «Наличие в Copilot моделей от разных поставщиков очень привлекательно, но мы выводим это на новый уровень, где клиенты действительно получают преимущества от совместной работы моделей», — прокомментировала нововведение агентству Reuters корпоративный вице-президент Microsoft по направлениям Microsoft 365 и Copilot Николь Херсковиц (Nicole Herskowitz).
Совместными усилиями две модели ИИ способны ускорить рабочий процесс для пользователей, сократив инциденты с галлюцинациями, когда модели дают заведомо неверные ответы, тем самым повысив надёжность и качество результатов. Ещё одна новая функция получила название «Совет» (Council) — она позволяет параллельно сравнивать ответы различных моделей ИИ. Наконец, участникам программы раннего доступа к новым функциям Frontier открыли доступ к ИИ-агенту Copilot Cowork, основанном на аналогичном продукте Anthropic Claude Cowork.