Предоставление ложной или неточной информации, в том числе в подготовленных посредством ИИ документах для заседаний, недопустимо, следует из опубликованного в четверг сообщения Федерального суда Австралии.
В стране принято прецедентное право. ИИ-системы решения зачастую «выдумывают» якобы существующие прецеденты, чтобы обосновать рекомендации.
Судьи федерального суда ожидают, что ответственный за подготовку документов гарантирует достоверность используемых в суде сведений, в том числе подготовленных ИИ-системами.
Участников процесса также предостерегли от передачи конфиденциальных данных ИИ-моделям. «Ввод информации посредством инструментов генеративного ИИ, даже если делиться этими данными не было намерений, может иметь серьёзные последствия». В США, напомним, обвиняемого обязали раскрыть запросы ИИ-инструменту Claude от Anthropic и полученные ответы по поводу выстраивания стратегии защиты.
См. также: Очередного адвоката оштрафовали в США за использование ChatGPT
















