ISO-standarder for KI – kategorisert

Med fremveksten av kunstig intelligens (KI) blir det stadig viktigere for norske virksomheter å ha på plass robuste rammeverk som kan sikre ansvarlig bruk av teknologien. ISO-standarder for KI bidrar til å strukturere dette arbeidet, og legger til rette for en trygg og effektiv implementering på tvers av ulike bransjer. Komiteen for KI har derfor kategorisert standardene nedenfor.

ISO-standarder for KI vil være til stor hjelp for norske virksomheter ved å etablere felles terminologi, slik at kommunikasjonen rundt KI blir mer presis og enhetlig. Standardene bidrar også til bedre styring av risiko (AI Risk Management), som gir virksomheter verktøy til å identifisere, evaluere og håndtere risikoer knyttet til KI-teknologi. Videre vil de styrke tilliten til KI-løsninger (Trustworthiness), som er avgjørende for å sikre offentlig aksept og samarbeid. 

Standardene gir også retningslinjer for datahåndtering og styring (Data and Governance), som sikrer at data blir brukt på en sikker og ansvarlig måte. Testing og samsvarskontroll (Testing and Conformity) sørger for at KI-løsninger oppfyller de nødvendige kravene før de tas i bruk, og til slutt adresserer de viktige sikkerhetsspørsmål (Cybersecurity for AI) for å beskytte KI-systemer mot cybertrusler.

Til sammen vil disse områdene bidra til at norske virksomheter kan utnytte potensialet i KI på en ansvarlig, sikker og pålitelig måte. Komite SN/K 586 Kunstig intelligens har derfor delt inn ISO-standarder for KI i følgende kategorier:

  • Terminologi
  • KI Risikostyring 
  • Tillit til KI 
  • Data og styring 
  • Testing og samsvar 
  • Cybersikkerhet for KI 

Ønsker du et tilbud på standardene i en eller flere kategorier – ta kontakt med salg på epost salg@standard.no eller 67 83 87 00.

Terminologi

Et felles begrepsapparat eller terminologi er avgjørende for å sikre klar og konsistent kommunikasjon rundt kunstig intelligens (KI) på tvers av ulike sektorer. ISO-standarder som ISO 23053, ISO 22989 og ISO 5259-1 spiller en nøkkelrolle i dette arbeidet ved å etablere en enhetlig forståelse av sentrale begreper innen KI.

Dette gir virksomheter et solid grunnlag for å samhandle og utvikle KI-løsninger på en mer effektiv og sikker måte. Ved å følge disse standardene, kan norske virksomheter redusere misforståelser, sikre bedre samsvar med internasjonale krav og styrke tilliten til deres KI-løsninger.

Kategori 1 – Terminologi

  • ISO/IEC 23053  Framework for Artificial Intelligence (AI) Systems Using Machine Learning (ML)
  • ISO/IEC 22989  Information technology — Artificial intelligence — Artificial intelligence concepts and terminology
  • ISO/IEC 5259-1  Data quality for analytics and machine learning (ML) Overview, terminology, and examples 

KI Risikostyring – Sikre ansvarlig bruk av kunstig intelligens

KI Risikostyring er en kritisk prosess for å sikre at kunstig intelligens (KI) implementeres på en ansvarlig og sikker måte. ISO-standardene 42001, 23894 og 5469 gir virksomheter klare retningslinjer for å identifisere, vurdere og håndtere risikoer knyttet til bruk av KI.

Disse standardene hjelper organisasjoner med å adressere potensielle trusler og sårbarheter, samtidig som de sikrer at KI-systemer opererer pålitelige, etiske og bærekraftige måter. Med et solid rammeverk for risikostyring kan norske virksomheter trygt ta i bruk KI-teknologi, og sikre både compliance og offentlig tillit.

Kategori 2 – KI risikostyring

  • ISO/IEC 42001  Information technology — Artificial intelligence — Management system
  • ISO/IEC 23894  Information technology — Artificial intelligence — Guidance on risk management
  • ISO/IEC TR 5469  Artificial intelligence — Functional safety and AI systems

Tillit til KI – Nøkkelen til ansvarlig teknologi

For at kunstig intelligens (KI) skal bli akseptert og brukt trygt, er tillit (Trustworthiness) avgjørende. ISO-standardene 24029, 24368, 24028, 24027, 24372, 5339 og 5338 gir retningslinjer som sikrer at KI-systemer er pålitelige, transparente, og etisk forsvarlige.

Disse standardene dekker viktige aspekter som gjennomsiktighet, ansvarlighet, og ytelse, som alle er kritiske for å bygge tillit til KI-løsninger. Gjennom å følge disse standardene kan norske virksomheter demonstrere at deres KI-systemer er sikre, rettferdige og verdt å stole på, noe som er essensielt for både brukere, kunder og myndigheter.

Kategori 3 – Tillitsverdighet (Trustworthiness)

  • ISO/IEC 24029-2  Artificial intelligence (AI) — Assessment of the robustness of neural networks — Part 2: Methodology for the use of formal methods
  • ISO/IEC TR 24368  Information technology — Artificial intelligence — Overview of ethical and societal concerns
  • ISO/IEC TR 24028  Information technology — Artificial intelligence — Overview of trustworthiness in artificial intelligence
  • ISO/IEC/TR 24027  Information technology - Artificial intelligence (AI) - Bias in AI systems and AI aided decision making (ISO/IEC TR 24027:2021)
  • ISO/IEC TR 24372  Information technology — Artificial intelligence (AI) — Overview of computational approaches for AI systems
  • ISO/IEC 5339  Information technology — Artificial intelligence — Guidance for AI applications
  • ISO/IEC 5338  Information technology — Artificial intelligence — AI system life cycle processes

Data og styring – Fundamentet for ansvarlig KI

Effektiv datahåndtering og styring (Data and Governance) er avgjørende for å sikre at kunstig intelligens (KI) fungerer på en ansvarlig og etisk måte. ISO-standardene 8183, 20547-1 til 20547-5, 5339, 5338, 24668 og 38507 setter rammene for hvordan data bør samles inn, administreres, og brukes i KI-systemer.

Disse standardene legger vekt på datakvalitet, sikkerhet, transparens og etisk styring, noe som bidrar til å redusere risiko og styrke tilliten til KI-løsninger. Ved å følge disse retningslinjene kan norske virksomheter sikre at deres data er godt styrt, noe som legger grunnlaget for pålitelige og ansvarlige KI-systemer.

Kategori 4 – Datastyring (Data Governance)

  • ISO/IEC 8183  Information technology — Artificial intelligence — Data life cycle framework
  • ISO/IEC TR 20547-1  Information technology — Big data reference architecture — Part 1: Framework and application process
  • ISO/IEC TR 20547-2  Information technology — Big data reference architecture — Part 2: Use cases and derived requirements
  • ISO/IEC 20547-3  Information technology — Big data reference architecture — Part 3: Reference architecture
  • ISO/IEC 20547-4  Informasjonsteknologi - Referansearkitektur for stordata - Del 4: Sikkerhet og personvern
  • ISO/IEC TR 20547-5  Information technology — Big data reference architecture — Part 5: Standards roadmap
  • ISO/IEC 5339  Information technology — Artificial intelligence — Guidance for AI applications
  • ISO/IEC 5338  Information technology — Artificial intelligence — AI system life cycle processes
  • ISO/IEC 24668  Information technology — Artificial intelligence — Process management framework for big data analytics
  • ISO/IEC 38507  Information technology — Governance of IT — Governance implications of the use of artificial intelligence by organizations

Testing og samsvar – Kvalitetssikring av KI-løsninger

For å sikre at kunstig intelligens (KI) fungerer som forventet og oppfyller nødvendige krav, er testing og samsvar (Testing and Conformity) avgjørende. ISO 25059 gir retningslinjer for hvordan KI-systemer skal testes for å måle deres ytelse, nøyaktighet, og robusthet.

Denne standarden bidrar til at virksomheter kan verifisere at deres KI-løsninger overholder fastsatte standarder og krav, både teknisk og etisk. Gjennom systematisk testing kan norske virksomheter sikre at KI-systemer er pålitelige, trygge og klare for bruk i kritiske applikasjoner, samtidig som de oppnår samsvar med internasjonale normer.

  • prEN ISO/IEC 25059  Software engineering - Systems and software Quality Requirements and Evaluation (SQuaRE) - Quality model for AI systems

Cybersikkerhet for KI – Beskyttelse i en digital verden

Big data refererer til den enorme mengden digital informasjon som samles inn fra ulike kilder i både digitale og fysiske miljøer. Disse dataene kommer ikke bare fra tradisjonelle informasjonsutvekslinger, men også fra sensorer i fysiske omgivelser som bymiljøer, transportmidler og kritisk infrastruktur. Innsamlingen og behandlingen av big data medfører nye utfordringer som ikke finnes i tradisjonelle digitale systemer.

Dette dokumentet ble utviklet som svar på det globale behovet for en felles sikkerhets- og personvernstandard for big data-arkitekturer, slik at man kan oppnå interoperabilitet uten å gå på akkord med personvern, konfidensialitet eller integritet.

  • ISO/IEC 20547-4  Informasjonsteknologi - Referansearkitektur for stordata - Del 4: Sikkerhet og personvern