Ponieważ zastosowanie istniejących i powstających technologii sztucznej inteligencji pociąga za sobą nowy skok jakościowy w społeczeństwach ludzkich, stawiają one poważną kwestię konceptualizacji ich w odniesieniu do wartości i wynikającego z nich ludzkiego postępowania. Rozsądne wydaje się twierdzenie, że różne wartości stosowane w ramach regulacyjnych, politykach i kulturze związanej z wykorzystaniem sztucznej inteligencji doprowadzą do bardzo różnych skutków społecznych. Po pierwsze, omówione zostanie to, w jaki sposób wartości powinny być konceptualizowane w odniesieniu do ich niewspółmierności i w powiązaniu z faktami. Wówczas uwypuklone zostanie niebezpieczeństwo wykorzystania sztucznej inteligencji w służbie władzy. Wreszcie, co ważne, nakreślona zostanie alternatywna droga i zrozumienie jej w kontekście dobra wspólnego i podstawowych wartości.
Ponieważ wartości są niewspółmierne i nie działają bezpośrednio w świecie faktów, a jedynie poprzez wpływanie na rzeczywistość społeczną i fizyczną poprzez postępowanie jednostek i grup, bardzo ważne jest, jakie są te ideały regulujące. W tym sensie nie ma standardowej miary ani praktycznego matematycznego sposobu porównywania wartości w sensie abstrakcyjnym. W ludzkim postępowaniu wybiera się (świadomie lub nieświadomie) wartość i działa się zgodnie z nią. Wtedy pojawiają się konsekwencje społeczne, które są dobre lub złe i mogą być przedmiotem dalszej oceny faktów.
Jeśli dobre wartości nie są wybierane świadomie przez jednostki lub jeśli nie ma wystarczająco wysokiego stopnia zgodności między wartościami różnych ludzi i ich grup, powstaje konflikt wartości. Taki konflikt nie musi, ale ma tendencję do zapadania się w stosowanie zwykłej władzy. W przypadku wykorzystania technologii sztucznej inteligencji oznacza to, że stają się one albo narzędziem walki o władzę z alternatywnym zestawem wartości, albo narzędziem w służbie samej władzy. W skrajnych przypadkach oznacza to wykorzystanie sztucznej inteligencji do kontrolowania populacji, zastosowanie jej do działań wojennych nieobronnych oraz obalenie procesów demokratycznych poprzez szturchanie i wpływy mediów.
Jest jednak inny sposób. Etyczne wykorzystanie sztucznej inteligencji nie powinno pociągać za sobą jedynie ustanowienia zabezpieczeń, które mogą jednocześnie hamować rozwój technologiczny, ale powinno być realizowane na poziomie kultury poprzez koncepcję dobra wspólnego. Dobre wyniki na poziomie społecznym zawsze opierają się na moralnym postępowaniu wystarczająco dużej liczby ludzi w tym społeczeństwie. Jednym ze sposobów myślenia o tym jest kategoria fińska, w której szacunek dla podstawowych wartości, takich jak życie, wiedza, zabawa, religia, przyjaźń, praktyczny rozsądek i doświadczenie estetyczne jest centralnym ideałem regulującym. Podstawowym znaczeniem postępowania moralnego jest szacunek dla każdej podstawowej wartości w każdym działaniu. Im dalej oddalamy się od tego centrum, tym mniej etyczne staje się wykorzystanie sztucznej inteligencji.
Wykorzystując i praktycznie stosując technologie sztucznej inteligencji, należy unikać kierowania się złymi wartościami lub pozwalania, aby jej wykorzystanie przerodziło się w społeczne zastosowanie samej władzy, co również prowadzi do niekorzystnych skutków. Moralne postępowanie ludzi ma ogromne znaczenie dla zapewnienia etycznego użytkowania. Regulacyjny ideał dobra wspólnego i konieczność poszanowania podstawowych wartości w korzystaniu ze sztucznej inteligencji rzeczywiście idą ze sobą w parze.

Luka Martin Tomažič uzyskał podwójną habilitację z prawa i filozofii na Uniwersytecie Alma Mater Europaea w Słowenii. Jest autorem ponad stu publikacji z zakresu prawa energetycznego, filozofii prawa i prawa konstytucyjnego. W 2023 roku IusInfo umieścił go wśród dziesięciu najbardziej wpływowych słoweńskich prawników.