Etyka sztucznej inteligencji: 4 podstawowe pytania, które powinniśmy zadać
Opublikowany: 2023-07-31Rok temu, gdybym powiedział „ AI” przy moim stole, moja (dojrzała) rodzina nie wiedziałaby, o czym mówię. Oczywiście z wyjątkiem dzieci. Dzieci już wszystko wiedzą.
Niedawny powszechny dostęp do narzędzi generatywnej sztucznej inteligencji skierowanych do konsumentów wywołał globalne dyskusje, od przejmowania robotów po ekscytację związaną z usuwaniem zadań oszczędzających czas z naszych pełnych talerzy w pracy.
Eksperci merytoryczni na całym świecie podwoili wysiłki na rzecz tworzenia zasobów uczenia maszynowego dla mas, podczas gdy decydenci polityczni rozważają kroki regulacyjne w celu zapewnienia barier, ponieważ przestępcy mają dzień w terenie, testując nasze obecne systemy w warunkach skrajnych.
Jednocześnie opracowaliśmy politykę technologiczną, która z trudem nadąża za tempem innowacji, populacjami, które nie są w stanie skutecznie odróżnić online faktów od fikcji, oraz rażącym ignorowaniem prywatności przez te same instytucje, które zachwalają jej konieczność.
„Krótko mówiąc, sztuczna inteligencja odgrywa teraz rolę w kształtowaniu wiedzy, komunikacji i władzy”.
Kate Crawford
Atlas AI
Odpowiadanie na cztery główne pytania dotyczące sztucznej inteligencji
W jaki sposób możemy uzyskać informacje na temat tego, w jakim kierunku pielęgnujemy wpływ sztucznej inteligencji? W jaki sposób możemy proaktywnie łagodzić szkody wyrządzane przez sztuczną inteligencję? W jaki sposób jako osoby fizyczne, korporacje i prawodawcy możemy zminimalizować ryzyko otwarcia puszki robaków uczących się maszyn ?
Zaczyna się od etyki – od każdego z nas, jako jednostek, podejmujących etyczne decyzje.
Jesteśmy innowatorami. Jesteśmy pracownikami. Jesteśmy rodzinami. Jesteśmy społecznościami. Jesteśmy firmami. Jesteśmy narodami. Jesteśmy globalną ludzkością. Budujemy, zasilamy i uczymy maszyny, dzięki czemu mamy 100% wkładu w ich produkcję.
Sztuczna inteligencja wpłynie na każdego z nas na tej planecie i każdy z nas ma swój udział i głos w kwestii tego, jak jest – i nie jest – dopuszczana do naszego życia.
Uczymy się na własnych błędach w życiu i biznesie, a sztuczna inteligencja nie jest inna. Uczenie się jest podstawą natury sztucznej inteligencji. W końcu nazywa się to uczeniem maszynowym . Sposób, w jaki go zbudujemy , determinuje to, co wyda . Gdzie więc obowiązuje tutaj etyka?
Zasady etyczne należy wdrażać na czterech głównych etapach całego cyklu życia sztucznej inteligencji:
- Jak to budujemy
- Co w nią wkładamy
- Co robimy z wyjściem
- Jak łagodzimy niezamierzone i nieuniknione konsekwencje
Pomijanie tego ostatniego etapu w cyklu życia jest – jak się domyślacie – nieetyczne .
Te etapy mogą wydawać się całkowicie rozsądnymi kamieniami milowymi, za pomocą których można przypisać zasady i wytyczne. Od lat 50. żyjemy obok algorytmów uczenia maszynowego. Od kilku lat tworzymy projekty globalnych standardów etycznych dotyczących danych i sztucznej inteligencji. A jednak daleko nam do porozumienia, a jeszcze dalej do adopcji.
Jeśli spojrzymy na niektóre obecne przeszkody prawne dla dużych technologii, jasne jest, że osoby odpowiedzialne za podejmowanie decyzji na każdym etapie cyklu życia sztucznej inteligencji nie biorą poważnie pod uwagę względów etycznych.
Kwestie etyczne dotyczące sztucznej inteligencji
Jak więc nalegać na etyczne praktyki osób zaangażowanych na każdym etapie cyklu życia sztucznej inteligencji?
Zadajemy pytania, zadajemy więcej pytań, a potem ponownie zadajemy te same pytania i nigdy nie przestajemy zadawać pytań.
- Kim są decydenci na każdym etapie? Potrzebujemy odpowiedzi na to pytanie, aby złagodzić uprzedzenia, zapewnić najlepsze praktyki i uwzględniać różnorodność myśli.
- Dla kogo podejmowane i optymalizowane są decyzje? Po raz kolejny zmniejsza to stronniczość, ale co ważniejsze, zapewnia ocenę wpływu na wszystkie strony przed pójściem naprzód.
- Jaki kapitał jest wymagany do napędzania sztucznej inteligencji na dużą skalę? Jest to potrzebne do przeprowadzania logicznych, długoterminowych analiz korzyści i kosztów.
- Jakie są skutki społeczne, polityczne i gospodarcze? Zrozumienie związku przyczynowo-skutkowego jest niezbędne do ciągłego korygowania wytycznych w czasie. (Lubię myśleć, że ten krok jest zgodny ze zwinnym rozwojem produktu: uruchom, ucz się, powtórz.)
Jak sztuczna inteligencja wpływa na pracę i gospodarkę
Trzy niedawne studia przypadków ze Stanford, MIT i Microsoft Research wykazały podobne wyniki we wzroście produktywności pracowników dzięki generatywnym narzędziom sztucznej inteligencji w porównaniu z ich odpowiednikami, którzy nie używali narzędzi do wykonywania swoich zadań.
W różnych dyscyplinach (obsługa klienta, inżynieria oprogramowania i tworzenie dokumentów biznesowych) widzimy w danych empirycznych, że użytkownicy biznesowi zwiększyli swoją przepustowość średnio o 66%. W najlepszym scenariuszu pozwala to zaoszczędzić czas na zadaniach wymagających poznawczo, tworząc warunki dla bardziej spersonalizowanych ludzkich akcentów, wyobraźni i dopracowanych rezultatów.
Wraz ze wzrostem produktywności na dużą skalę pojawiają się obawy, że niektóre zawody w końcu staną się przestarzałe. Z historycznego punktu widzenia branża ma naturalny cykl życia, kiedy nowe innowacje pojawiają się na rynkach pracy. Na przykład, czy kiedykolwiek zastanawiałeś się, co stało się z operatorami telefonicznymi ?
Nikt nie ma magicznego przełącznika, który pozwala niewykwalifikowanych lub słabo wykwalifikowanych pracowników na natychmiastowe wejście do branż wymagających bardziej zaawansowanych umiejętności. Istnieje luka w umiejętnościach, która historycznie opierała się na sieciach bezpieczeństwa socjalnego i je wyczerpuje. Te luki w umiejętnościach wymagają czasu, aby je zidentyfikować, sfinansować i wypełnić. Nawet jeśli niektóre kraje proaktywnie wspierają podnoszenie kwalifikacji swoich pracowników, dane pokazują, że najbardziej wrażliwe segmenty naszej globalnej populacji są zwykle nieproporcjonalnie dotknięte tymi innowacyjnymi okresami rozkwitu.
Podczas gdy prognozy gospodarcze zdecydowanie wskazują na pozytywny wpływ generatywnego wykorzystania sztucznej inteligencji na rynek pracy w biznesie, czy w pełni wiemy, co jest zagrożone tym boomem gospodarczym?
Twórcy, tacy jak artyści, muzycy, filmowcy i pisarze, należą do branż z kilkoma pozwami zbiorowymi przeciwko OpenAI i firmie macierzystej Facebooka Meta. Wielkie firmy technologiczne, które czerpią korzyści ze sztucznej inteligencji, zaprzeczają twierdzeniom, że chronione prawem autorskim prace artystów zostały bezprawnie wykorzystane do szkolenia modeli AI. Artyści masowo usuwają konta internetowe, a znane firmy kreatywne, takie jak Getty Images, składają pozwy . W odpowiedzi FTC niedawno zbadała praktyki zbierania danych online OpenAI.
To doskonały przykład czterech etapów cyklu życia sztucznej inteligencji. Zadajmy sobie pytania etyczne:
- Kto podjął te decyzje? Nie kreacje.
- Dla kogo zoptymalizowano decyzje? Nie kreacje.
- Jaki był koszt kapitału? Kapitał Ludzki? Kapitał finansowy? Kapitał naturalny? Być może we wszystkich trzech odbyło się to kosztem kreacji.
- Czy uwzględniono skutki społeczne, polityczne i gospodarcze? Być może, ale przez kogo? Nie kreacje.
Czy jesteśmy gotowi zaryzykować, że pokolenie twórców i pokrewnych branż wstrzyma publikację swoich prac w Internecie? W jaki sposób wpłynie to na naszą twórczą ewolucję kulturową, źródła utrzymania twórców oraz długoterminowy wpływ społeczny i polityczny, jaki będzie to miało? Czy ktoś przemyślał ten potencjalny wpływ, ustalił, czy ryzyko prawne i ryzyko utraty reputacji było uzasadnione, i zdecydował się pójść naprzód?
Może. Albo po prostu w ogóle tego nie przemyśleli. W obu przypadkach decyzja była nieetyczna, niezależnie od ich interpretacji skutków prawnych.
W globalnej gospodarce niezwykle ważne jest, aby zidentyfikować organizacje działające w ramach etycznych praktyk, aby nadać priorytet ich wsparciu nad tymi, które naruszają standardy etyczne. Nie ujawniając postawy etycznej decydentów, ryzykujemy, że przypadkowo spojrzymy w inną stronę właśnie w momencie, gdy potrzebujemy szeroko zakrojonej kontroli.
Pytanie na wynos: Jak możemy zmierzyć, zmierzyć lub zidentyfikować postawę etyczną firmy?
Daj nam znać tutaj.
Jak sztuczna inteligencja wpływa na środowisko
Sztuczna inteligencja to energochłonna infrastruktura. Wpływ na środowisko jest w dużej mierze poza zasięgiem wzroku i umysłu i często jest przedmiotem refleksji w przestrzeni takiej jak sektor technologiczny.
Przegląd technologii MIT poinformował, że szkolenie jednego modelu AI może emitować tyle samo węgla, co pięć samochodów, co odpowiada ponad 626 000 funtów dwutlenku węgla. Minerały Ziemi również odgrywają dużą rolę w tym, co napędza energię do masowego przetwarzania obliczeniowego generatywnej sztucznej inteligencji. Wydobywanie niezbędnych metali wykorzystywanych w fizycznej infrastrukturze obliczeniowej często odbywa się kosztem lokalnej i geopolitycznej przemocy .
„Bez minerałów z tych miejsc współczesne obliczenia po prostu nie działają”.
Kate Crawford
Atlas sztucznej inteligencji
Pamiętaj o naszym trzecim pytaniu etycznym: Jaki kapitał jest potrzebny do napędzania sztucznej inteligencji na dużą skalę? Aby przeprowadzić logiczną długoterminową analizę kosztów korzyści. Kapitał naturalny w postaci wpływu na naszą planetę nie powinien być pomijany w równaniu, jeśli jesteśmy na tyle odważni, by zadać właściwe pytania.
Zadawanie właściwych pytań może być przerażające, zwłaszcza jeśli pytania dotyczą twojego własnego źródła utrzymania jako źródła niezgody. Ale w interesie wiedzy jest władza , technolodzy muszą przyjąć przejrzystość, aby ostatecznie uczestniczyć w etycznych rozwiązaniach technologicznych.
To nie sabotaż korporacyjny! Grupa praktyków uczenia maszynowego, „którzy są również świadomi ogólnego stanu środowiska”, zobowiązała się do zbudowania narzędzi wspomagających ocenę emisji dwutlenku węgla generowanych przez ich pracę. Po dokonaniu oceny mogą obliczyć sposoby ograniczenia tych emisji. Stworzyli nawet ten kalkulator emisji , aby inni praktycy sztucznej inteligencji mogli obliczać szacunki.
Pytanie na wynos: w jaki sposób możemy zachęcić technologów i dostawców, aby odważnie dbali o przejrzystość sztucznej inteligencji?
Daj nam znać tutaj.
Jak ramy generujące zwrot z inwestycji wpływają na etykę sztucznej inteligencji
Same regulacje nie mogą rozwiązać naszych problemów ze sztuczną inteligencją. Technologów często motywują wskaźniki, które mogą im się wydawać etycznie agnostyczne, ponieważ nie są regulowane, ale przynoszą zwrot z inwestycji. Czym są te ramy generujące zwrot z inwestycji? Gdzie widzimy te zestawy reguł na wolności, które zwracają jakąś formę nagrody firmie przestrzegającej zasad?
Rozważmy algorytm Google PageRank jako przykład pozaregulacyjnego wpływu na etykę technologiczną. Algorytm Google PageRank analizuje „różne sygnały, które są zgodne z ogólnym doświadczeniem strony”. Obejmuje to elementy, które są zgodne z najlepszymi praktykami UX, zgodnie z wytycznymi ADA i polityką prywatności.
Brak wzorców ciemnej sieci oznacza korzystny ranking. Brak zgodności z ADA będzie oznaczał mniej korzystne rankingi. Poprawiając widoczność witryny i przestrzegając wytycznych Google, widzimy, że decyzje etyczne są podejmowane nieumyślnie, w oparciu o przestrzeganie zbioru zasad nieregulacyjnych.
Dlaczego witryna Twojej firmy powinna być zgodna z zalecanymi sprawdzonymi metodami z algorytmu tej innej firmy? Ponieważ robienie tego blokuje najlepsze szanse na dobrą pozycję w Google. Wpływ na wykrywalność firmy i postrzegane znaczenie w Internecie, co wpływa na jej wyniki finansowe, jest motywatorem, a tym samym wpływa na praktyki etyczne bez egzekwowania przepisów.
Pytanie na wynos: W jaki sposób możemy pociągnąć naszych technologów do odpowiedzialności za ich etyczne praktyki poza tradycyjną przestrzenią regulacyjną? W czym widzą wartość? Skąd czerpią paliwo dla swojego sukcesu?
Daj nam znać tutaj.
Zaczyna się od nas
Bez względu na to, kim jesteś, każdy odgrywa rolę w minimalizowaniu ryzyka, które idzie w parze z nieetycznym używaniem narzędzi sztucznej inteligencji i uczenia maszynowego. Jako jednostki bardzo ważne jest, abyśmy podejmowali etyczne decyzje dotyczące korzystania ze sztucznej inteligencji oraz tego, jak – i czego – uczymy te maszyny o społeczeństwie.
Historia sztucznej inteligencji dopiero się zaczyna, a sposób, w jaki całkowicie zmieni ona przyszłość, to historia, która nie została napisana… jeszcze. Na szczęście mamy wpływ na to, jak sztuczna inteligencja ewoluuje zarówno w naszym życiu osobistym, jak i zawodowym. Wszystko sprowadza się do upewnienia się, że etyka jest najważniejsza.
G2 chce usłyszeć od ciebie!
Osoby zainteresowane etyką sztucznej inteligencji prosimy o podzielenie się swoimi przemyśleniami na temat tego, czego brakuje w tej rozmowie, co jest najważniejsze dla Ciebie, Twojej branży, firmy lub źródeł utrzymania. Planuję kontynuować tę rozmowę i udostępniać kolejne artykuły w oparciu o spostrzeżenia i naukę od Ciebie i reszty społeczności G2.
Chcesz więcej przemyślanego przywództwa? Ten artykuł jest częścią serii G2 Voices, która przedstawia różnych wpływowych liderów G2.