Zapowiedź cyklu: Lider przy Przywódca? Stephen Hawking i sztuczna inteligencja

Cykl: Poniedziałkowa Dopamina – jak zadbać o kreatywność w pracy? Motywacja!
Marzec 12, 2018
PR z historią w tle: Lider czy przywódca?
Marzec 30, 2018
Pokaż wszystkie

Zapowiedź cyklu: Lider przy Przywódca? Stephen Hawking i sztuczna inteligencja

autor grafiki: Comfreak, licencja CC0

autor grafiki: Janson_G licencja CC0

Ten cykl planowałam rozpocząć we wtorek 20 marca, jednak po informacji o tym, że zmarł profesor Stephen Hawking, postanowiłam dziś opublikować zapowiedź cyklu: Lider czy Przywódca? Wybitny naukowiec był siłaczem naszych czasów, mimo, że przykuty do wózka. To, co pojawiło się w moich myślach, gdy dowiedziałam się o jego śmierci, dotyczyło czarnej wizji naszej cywilizacji oraz zagrożeń płynących z prac nad sztuczną inteligencją. Fizyk uważał, że maszyna posiadająca sztuczną inteligencję powinna być dobra i wyznawać nasze wartości…

 

 

Mądre łamanie reguł

Zasady, reguły, regulaminy, wszystko to powstaje, aby ludzie czuli się bezpiecznie. Co, jeżeli od złamania reguły zależy życie ludzkie? Za zasadę zgodną z przepisami ruchu drogowego wszyscy uznajemy nie poruszanie się przy czerwonym świetle. Dotyczy to zarówno pieszych oraz tych, którzy prowadzą samochód. Jednak tę zasadę łamią tzw. pojazdy uprzywilejowane: karetki, wozy strażackie, radiowozy policyjne. Łamią ją, ponieważ życie ludzie jest ważniejsze od trzymania się twardo przepisów. Nikt z Nas przed tym nie protestuje. Jesteśmy przekonani, że gdyby służba medyczna przemieszczająca się z pacjentem w karetce na sygnale, postanowiła zatrzymać się na czerwonym świetle i poczekać na zielone, aby twardo przestrzegać przepisów kodeksu drogowego, bylibyśmy tym oburzeni! Wychodzi na to, że musimy wiedzieć, kiedy złamać regułę, a kiedy jej przestrzegać. Czy słyszeliście o tej historii? Policja zatrzymała kierowcę, który przekroczył prędkość i ku ich zaskoczeniu zobaczyli, że prowadzący pojazd płakał ten płakał. Na tylnym siedzeniu spostrzegli jego żonę z dzieckiem, które nie oddychało. Funkcjonariusze, zamiast wlepić mandat za przekroczenie prędkości pomogli jak najszybciej dotrzeć małżeństwu z dzieckiem do pobliskiego szpitala. Dzięki temu dziecko przeżyło. Pokazali, że dobro człowieka jest sprawą nadrzędną i prawdopodobnie nie mieli nigdzie napisane w regulaminie, według jakich przepisów postępować w takiej sytuacji. Wielka mądrość i odwaga.

 

Czy sztuczna inteligencja może być empatyczna?

autor grafiki: Comfreak, licencja CC0

Mówiłam o żywych ludziach, którzy odczuwają emocje, a jak jest ze sztuczną inteligencją. Kto z Was zna twórczość Andrzeja Sapkowskiego opisującego losy Geralta z Rivii? Wiedźmiński trening uczy tłumienia emocji, jednak Geralt nie jest typowym Wiedźminem. Potrafi wybierać między dobrem a złem, odczuwa emocje, nie dostosowuje się ślepo do reguł, ale poddaje je refleksji. Jaskier mówi, że nigdy nie spotkał lepszego człowieka od niego. Czy zatem Geralt to taka sztuczna inteligencja, zaprogramowana do pomagania ludziom? Nie. Jak zapewne wszyscy wszyscy wiemy, on był mniej zmutowany niż pozostali i dlatego właśnie przetrwał. Jeżeli zatem tworzymy  maszyny ze sztuczną inteligencją to czy mogą być empatyczne? Profesor Hawking obawiał się, żeby stworzenie takiej innowacji nie było najgorszą rzeczą w historii ludzkości. Opracował więc z grupą innowatorów 23 zasady, które mają nas ochronić przed złą sztuczną inteligencją. Polecam artykuł w https://businessinsider.com.pl/technologie/jak-panowac-nad-maszynami-zasady-hawkinga-i-muska/g9jk0dt

 

Sztuczna inteligencja. Maszyna, która czuje?

Obawiam się, że nie… Możemy polegać na regułach, na innowacyjnych technologiach, ale to nie jest równoznaczne z zaufaniem. Takie doświadczenie może być pomiędzy ludźmi. Ufność jest spowodowana produkowaniem w naszym organizmie hormonu oksytocyny, który jest związany z działaniami na rzecz bezpieczeństwa. Jaką mamy gwarancję, że maszyna się o Nas zatroszczy? Czy reguły i zmienne według, których została zaprogramowana, mogą być łamane, ale według wcześniej zaprogramowanych reguł i zmiennych. Czy człowiek jest w stanie wszystko przewidzieć? Nie… Maszyna, która jest najwyższej klasy innowacyjna, reaguje tylko na regułę zmiennych, ale się o Nas nie zatroszczy. Domyślacie się, dlaczego funkcjonuje stereotyp, że urzędnicy Nas denerwują? Ponieważ, uważamy, że większość z nich trzyma się sztywno przepisów i reguł nie dostrzegając, że mają one wspierać społeczeństwo. Dochodzimy do wniosku, że urzędnicy nie troszczą się o Nas. Wyobrażacie sobie, że na konflikt w rodzinie reagujemy listą zmiennych albo sięgamy do przepisów? Raczej nie.

Przykro mi, ale obawiam się, że empatia, która jest nam potrzebna w życiu prywatnym,  zawodowym, będąca jednym z etapów metody design thinking, raczej nie pojawi się w sztucznej inteligencji. Jeśli już, to w postaci reguł i zmiennych, ale czy będą one przygotowane na wszystkie ewentualności? Z tym pytaniem Was zostawiam.