Skip to main content

OpenAI julkaisi Outbound Coordinated Disclosure Policy -politiikan – tekoäly mukana tietoturvatyössä
OpenAI on julkaissut uuden Outbound Coordinated Disclosure Policy -ohjeistuksen, jossa yhtiö sitoutuu vastuulliseen kolmansien osapuolten ohjelmistojen haavoittuvuuksien raportointiin. Tämän politiikan tavoitteena on tukea turvallisemman digitaalisen ekosysteemin rakentamista yhdessä ohjelmistotoimittajien ja tietoturvayhteisön kanssa.

Miksi tämä on merkittävää?
OpenAI:n AI-järjestelmät ovat jo löytäneet nollapäivähaavoittuvuuksia sekä kolmannen osapuolen että avoimen lähdekoodin ohjelmistoista. Tekoälyn kehittyessä automaattisen haavoittuvuuksien löytämisen ja korjaamisen merkitys kasvaa nopeasti, ja OpenAI näkee koordinoidun raportoinnin välttämättömänä osana vastuullista AI-kehitystä.

Mitä politiikka käytännössä tarkoittaa?
Koskee sekä automaattisesti että manuaalisesti löydettyjä haavoittuvuuksia avoimen lähdekoodin ja kaupallisissa ohjelmistoissa.

Yhteistyöhön perustuva ja kehittäjäystävällinen – raportointiaikataulut pidetään lähtökohtaisesti avoimina, jotta haasteellisempien ongelmien ratkaisuun voidaan käyttää tarvittaessa enemmän aikaa.

Alkuun ei-julkista raportointia ohjelmistotoimittajalle, poikkeuksena tilanteet joissa julkinen tieto on perusteltua.

Periaatteet: vaikuttavuus, yhteistyö, diskreetti viestintä, tehokkuus ja tunnustuksen antaminen löydöistä.

AI-skeneen soveltuva: OpenAI uskoo, että tekoälyratkaisujen kyky löytää yhä monimutkaisempia ohjelmointivirheitä tulee lisääntymään tulevaisuudessa.

Miksi aikataulut jätetään avoimiksi?
OpenAI korostaa, että AI-mallien löydökset voivat olla entistä monitahoisempia ja vaatia syvempää yhteistyötä ylläpitäjien kanssa – siksi liian tiukat aikarajat eivät ole kaikissa tapauksissa tarkoituksenmukaisia. Kuitenkin OpenAI varaa oikeuden julkistaa tiedot, jos tilanne sitä edellyttää, esimerkiksi yleisen turvallisuuden nimissä.

Yhteenveto
OpenAI:n uusi politiikka edistää vastuullista ja läpinäkyvää tapaa ilmoittaa haavoittuvuuksista, jotka sen AI-järjestelmät tai tutkijat löytävät kolmansien osapuolten ohjelmistoista. Tavoitteena on luoda yhteiset normit ja käytännöt, jotka tukevat sekä nopeaa reagointia että kestävää ohjelmistoturvaa AI:n aikakaudella.

https://openai.com/index/scaling-coordinated-vulnerability-disclosure/