Trustworthy AI in Healthcare Innovation : Ethical Assessment and Project Management under the EU AI Act
| dc.contributor.author | Happonen, Antti | |
| dc.contributor.faculty | fi=Tekniikan ja innovaatiojohtamisen yksikkö|en=School of Technology and Innovations| | |
| dc.contributor.orcid | 0009-0006-8532-9914 | |
| dc.contributor.organization | fi=Vaasan yliopisto|en=University of Vaasa| | |
| dc.date.accessioned | 2026-04-23T07:12:20Z | |
| dc.date.issued | 2026-03-24 | |
| dc.description.abstract | The High-Level Expert Group (HLEG) on Artificial Intelligence (AI), established by the European Commission, defines ethical guidelines for trustworthy AI. These ethical guidelines describe seven key principles that AI developers must follow to ensure the ethical and responsible development of AI. The HLEG guidance has been directly transferred to the EU Artificial Intelligence Act adopted in 2024. Trustworthy AI refers to AI systems that are explainable, fair, interpretable, robust, transparent, safe and secure. The central question in this thesis is how these seven AI HLEG key ethical principles can be integrated into healthcare product innovation and development work and further into project management practices. As AI becomes increasingly integral to both development processes and outcomes, the demand for transparent, structured, and ethically grounded governance has intensified. This thesis addresses this need by examining the suitability of the Z‑Inspection® method for assessing AI trustworthiness and by exploring how such evaluations can be integrated into the project management lifecycle. The implications of this thesis extend beyond individual projects. For practitioners, our findings emphasize the need to build AI governance competencies, cultivate responsible AI cultures, and establish cross‑functional structures for socio‑technical assessment. For policymakers, our research highlights the importance of clearer regulatory guidance, alignment between AI‑specific and healthcare‑specific requirements, and broader capacity‑building efforts. For researchers, this thesis identifies opportunities to further operationalize trustworthy AI assessment, evaluate frameworks such as Z‑Inspection®, and study organizational maturity in AI governance. Overall, this thesis demonstrates that integrating trustworthy AI assessment into project management is both feasible and necessary. As AI continues to shape healthcare innovation, organizations must adopt context‑sensitive management approaches to ensure safety, transparency, and alignment with societal values. By connecting ethical principles with practical implementation, this work contributes to strategic project management practices that support trustworthy AI innovation. The proposed integration of Z‑Inspection® into the project management lifecycle offers a structured pathway for navigating AI adoption while upholding innovation, trustworthiness, and regulatory compliance under the EU legislation. | |
| dc.description.abstract | Euroopan komission perustama tekoälyä käsittelevä korkean tason asiantuntijaryhmä (AI HLEG) määrittelee luotettavan tekoälyn eettiset ohjeet. Näissä eettisissä ohjeissa kuvataan seitsemän keskeistä periaatetta, joita tekoälykehittäjien on noudatettava tekoälyn eettisen ja vastuullisen kehittämisen varmistamiseksi. Tekoälyn AI HLEG -asiantuntijaryhmän ohjeet on siirretty suoraan vuonna 2024 hyväksyttyyn EU:n tekoälylakiin. Luotettava tekoäly viittaa tekoälyjärjestelmiin, jotka ovat selitettäviä, oikeudenmukaisia, tulkittavissa olevia, robusteja, läpinäkyviä, turvallisia ja suojattuja. Tämän opinnäytetyön keskeinen kysymys on, miten nämä seitsemän AI HLEG -asiantuntijaryhmän määrittelemää tekoälyn keskeistä eettistä periaatetta voidaan integroida terveydenhuollon innovaatio- ja tuotekehitystyöhön ja edelleen osaksi projektinjohtamisen prosesseja ja hyviä käytäntöjä. Tekoälyn tullessa yhä olennaisemmaksi osaksi sekä tuotekehitysprosesseja että niiden tuloksia, läpinäkyvän, jäsennellyn ja eettisesti perustellun tekoälyhallinnan kysyntä kasvaa. Tämä opinnäytetyö vastaa tähän tarpeeseen tutkimalla niin kutsuttua Z-katselmusmenetelmää (eng. Z-Inspection® method) ja sen soveltuvuutta tekoälyn luotettavuuden arviointiin selvittämällä, miten tällaiset arvioinnit voidaan integroida projektinjohtamisen elinkaareen. Tämän opinnäytetyön vaikutukset ulottuvat laajalle ja eri ammattiryhmiin. Käytännön ammattilaisten kannalta esitetyt tulokset korostavat tarvetta kehittää tekoälyn hallintaosaamista, edistää vastuullista tekoälykulttuuria sekä luoda toiminnallisia rakenteita tekoälykehitystyön sosioteknisiä arviointeja varten. Päättäjien kannalta tutkimus korostaa selkeämpien sääntelyohjeiden, tekoälyn vaatimusten yhdenmukaistamisen sekä organisaatioiden valmiuksien kehittämisen merkitystä terveydenhuollossa. Tutkijoille tämä opinnäytetyö tunnistaa uusia tutkimusmahdollisuuksia luotettavan tekoälyn käyttöönotossa osana projektinhallintaa sekä organisaatioiden kypsyyden arviointia tekoälyn hallinnassa. Kaiken kaikkiaan tämä opinnäytetyö osoittaa, että luotettavan tekoälyarvioinnin integrointi projektinhallintaan on sekä mahdollista että välttämätöntä. Tekoälyn jatkaessa terveydenhuollon innovaatiotyön muokkaamista, organisaatioiden on omaksuttava kontekstiherkkiä johtamismenetelmiä turvallisuuden, läpinäkyvyyden ja yhteiskunnallisten arvojenmukaisuuden varmistamiseksi. Yhdistämällä eettiset periaatteet käytännön toteutukseen tämä työ edistää strategisia projektinhallintakäytäntöjä tukien luotettavaa tekoälyn innovointi- ja kehitystyötä. Ehdotettu Z-katselmuksen integrointi projektinhallinnan elinkaareen tarjoaa strukturoidun polun tekoälyn käyttöönotolle ja tukee samalla sen innovointia, luotettavuutta ja EU-lainsäädännön mukaisen sääntelyn noudattamista. | |
| dc.description.notification | fi=Opinnäytetyö kokotekstinä PDF-muodossa.|en=Thesis fulltext in PDF format.|sv=Lärdomsprov tillgängligt som fulltext i PDF-format| | |
| dc.format.content | fi=kokoteksti|en=fulltext| | |
| dc.format.extent | 132 | |
| dc.identifier.uri | https://osuva.uwasa.fi/handle/11111/20208 | |
| dc.identifier.urn | URN:NBN:fi-fe2026032422703 | |
| dc.language.iso | eng | |
| dc.rights | CC BY 4.0 | |
| dc.subject.degreeprogramme | Master’s Programme in Industrial Engineering and Management | |
| dc.subject.discipline | Strategic Project Management | |
| dc.subject.yso | evaluation | |
| dc.subject.yso | project leadership | |
| dc.subject.yso | innovations | |
| dc.subject.yso | project management | |
| dc.subject.yso | projects | |
| dc.subject.yso | ethics | |
| dc.subject.yso | artificial intelligence | |
| dc.subject.yso | reliability (general) | |
| dc.subject.yso | risk management | |
| dc.subject.yso | development projects | |
| dc.subject.yso | regulation (control) | |
| dc.subject.yso | trust | |
| dc.title | Trustworthy AI in Healthcare Innovation : Ethical Assessment and Project Management under the EU AI Act | |
| dc.type.ontasot | fi=Diplomityö|en=Master's thesis (M.Sc. (Tech.))|sv=Diplomarbete| |
Tiedostot
1 - 1 / 1
Ladataan...
- Name:
- Uwasa_2026_Happonen_Antti.pdf
- Size:
- 1.91 MB
- Format:
- Adobe Portable Document Format
