Pod důvěryhodností si komise představuje tři složky, které by se měly dodržovat ve všech fázích životního cyklu AI. Mělo by se jednat o legální systém, který respektuje právní předpisy, je etický a dostatečně robustní z technického i sociálního hlediska.
Konkrétní podmínky pro důvěryhodnou AI jsou:
- lidský faktor a dohled;
- technická robustnost a bezpečnost;
- ochrana soukromí a správa dat;
- transparentnost;
- rozmanitost, nediskriminace a spravedlnost;
- dobré environmentální a sociální podmínky a
- odpovědnost.
Vedle Etických pokynů existuje celá řada zahraničních či mezinárodních dokumentů podobného zaměření. Už v lednu 2017 se na konferenci o AI zformulovalo 23 tzv. Asilomarských principů vývoje AI. V prosinci 2018 byla zveřejněna Montrealská deklarace pro odpovědný vývoj umělé inteligence, která obsahuje 10 principů. Doporučení OECD, přijaté v květnu 2019, čítá 5 základních principů pro vývoj a využití AI. Vlastní principy odpovědné AI vypracovala nedávno například i organizace ITechLaw.
Obsahy jednotlivých doporučení se v těchto dokumentech do značné míry překrývají. Zároveň ale spadají do kategorie soft law, jde tedy – alespoň prozatím - o právně nevynutitelné principy. Na druhou stranu se v Kalifornii Asilomarské principy loni promítly do závazné legislativy. Podobně i Evropská unie směřuje k přijetí všeobecně závazných právních předpisů ve vztahu k AI, které nejspíše zohlednění i Etické pokyny.