Pojawienie się Deepseek AI, opracowanego przez Chińskiego modelu oferującego znacznie tańsze alternatywy dla zachodnich rozwiązań AI, takich jak Chatgpt, wywołało intensywną debatę i troskę w branży technologicznej. W tym tygodniu były prezydent Donald Trump określił Deepseek jako „budzenie” dla amerykańskiego sektora technologicznego, po drastycznym spadku wartości rynkowej NVIDIA o 600 miliardów dolarów. Nvidia, lider produkcji GPU niezbędny do operacji AI, sprawiał, że jej akcje spadły o 16,86%, co oznacza największą stratę jednodniową w historii Wall Street. Inni giganci technologiczni, tacy jak Microsoft, Meta Platforms i firma macierzysta Google Alphabet doświadczyli spadków od 2,1%do 4,2%, podczas gdy producent serwerów AI Dell Technologies spadł o 8,7%.
Model R1 Deepseek, zbudowany na otwartym source Deepseek-V3, twierdzi, że wymaga znacznie mniejszej mocy obliczeniowej niż jego zachodnie odpowiednicy i podobno został przeszkolony za jedyne 6 milionów dolarów. Chociaż roszczenia te są przedmiotem sporu, wprowadzenie Deepseek zadało pytania dotyczące masowych inwestycji, które amerykańskie firmy technologiczne w sztucznej inteligencji, powodując niepokój inwestora. Popularność modelu wzrosła, napędzając go na górze amerykańskich bezpłatnych wykresów pobierania aplikacji wśród rosnących dyskusji na temat jego możliwości.
Bloomberg poinformował, że Openai i Microsoft badają, czy Deepseek wykorzystuje interfejs API Openai do włączenia modeli AI Openai do własnych, praktyki znanej jako destylacja. Openai stwierdził Bloombergowi: „Wiemy, że firmy z siedzibą w PRC (Chiny) - i inne - nieustannie starają się destylować modele wiodących amerykańskich firm AI”. Destylacja, która obejmuje szkolenie modeli AI poprzez wyodrębnienie danych z większych, bardziej zdolnych, narusza warunki obsługi Openai. Openai podkreślił swoje zaangażowanie w ochronę własności intelektualnej i podkreślił znaczenie współpracy z rządem USA w celu ochrony zaawansowanych modeli AI przed zagrożeniami przeciwnikowymi i konkurencyjnymi.
David Sacks, sztuczna inteligencja Trumpa Czar, powiedział Fox News: „Istnieją istotne dowody, że Deepseek tutaj to, że destylenili wiedzę z modeli Openai i nie sądzę, że Openai jest z tego bardzo zadowolony”. Oczekuje, że wiodące firmy AI podejmą kroki w celu zapobiegania takiej destylacji w nadchodzących miesiącach.
Deepseek jest oskarżany o użycie modelu Openai do szkolenia konkurenta za pomocą destylacji. Zdjęcie: Andrey Rudakov/Bloomberg za pośrednictwem Getty Images.
Wśród tych wydarzeń obserwatorzy zauważyli ironię sytuacji Openai, biorąc pod uwagę własną historię używania materiałów chronionych prawem autorskim do szkolenia chatgpt. Tech PR i pisarz Ed Zitron napisali na Twitterze: „Tak mi przykro, że nie mogę przestać się śmiać. Openai, firma oparta na kradzieży dosłownie całego Internetu, płacze, ponieważ Deepseek mógł trenować na wynikach z Chatgpt. Płakują oczami. Cóż za grupa hipokrytycznych małych dzieci”.
W styczniu 2024 r. Openai przyznał się do poddania się brytyjskiej komisji ds. Komunikacji House of Lords i cyfrowej selekcji, że szkolenie modeli AI, takich jak Chatgpt bez materiałów chronionych prawem autorskim, było „niemożliwe”. Argumentowali, że ponieważ prawa autorskie obejmują prawie wszystkie formy ludzkiej ekspresji, z wyłączeniem materiałów chronionych prawem autorskim poważnie ograniczy skuteczność i znaczenie systemów AI.
Kwestia szkolenia sztucznej inteligencji na temat materiałów chronionych prawem autorskim stała się centralnym punktem w branży technologicznej, szczególnie wraz ze wzrostem generatywnej sztucznej inteligencji. W grudniu 2023 r. New York Times pozwał Openai i Microsoft za „bezprawne wykorzystanie” swoich prac nad opracowywaniem swoich produktów. Openai bronił swoich praktyk, twierdząc, że takie szkolenie stanowi „dozwolone użycie” i podkreśliło jego poparcie dla dziennikarstwa i partnerstwa z organizacjami prasowymi.
W tym pozwie nastąpił inny we wrześniu 2023 r., W którym 17 autorów, w tym George RR Martin, oskarżyło Openai o „systematyczną kradzież na masowej skali”. Ponadto, w sierpniu 2023 r. Sędzia okręgowy Beryl Howell podtrzymał orzeczenie amerykańskiego biura praw autorskich z 2018 r., Że sztuka generowana przez AI nie może być chroniona prawem autorskim, podkreślając konieczność ludzkiej kreatywności w ochronie praw autorskich.