A Microsoft újra megerősítette, hogy a Copilot kizárólag szórakoztatási célokra szolgál és ha munkához használják, azt a tényellenőrzés több lépcsőfokának első szakaszaként kell alkalmazni, nem pedig kizárólagos forrásként.
- Előfordulhat, hogy hibázik, és nem úgy működik, ahogyan azt szánták. Ne támaszkodjon a Copilotra fontos tanácsokért. A Copilot használata a saját felelősségére történik - írta a vállalat. És hogy ennek mi értelme? Bár ők nagyon szeretnék, ha a cégek és az alkalmazottak továbbra is használnák a Copilotot, a felelősség a felhasználóra hárul, a Microsoft pedig mentesül minden, téves információkkal kapcsolatos vád alól.
A Microsoft gyakorlatilag elismeri az AI-hallucinációk kockázatát, miközben továbbra is aggodalmak merülnek fel a szerzői jogi védelem alatt álló tartalmakkal, a szellemi tulajdonjogok bizonytalanságával és a generált tartalmak jogszerűségével kapcsolatban.
Úgy tűnik, a vállalat szeretné, ha a Copilotot eszközként, nem pedig döntéshozóként használnánk és ha önállóan ellenőriznénk az eredmények valóságtartalmát, valamint óvatosan bánnánk minden adattal.
