Superhuman CEO Shishir Mehrotra o etyce AI, kontrowersjach wokół Grammarly i przyszłości produktywności opartej na sztucznej inteligencji
Brief news summary
W wywiadzie w podcaście Decoder CEO Superhuman Shishir Mehrotra odniósł się do kontrowersji wokół funkcji Expert Review wspieranej przez AI Grammarly, która sugerowała poprawki przypisane ekspertom bez ich zgody, co wywołało sprzeciw i pozew zbiorowy. Mehrotra przyznał się do błędu, przeprosił i potwierdził usunięcie tej funkcji. Przedstawił wizję Superhuman polegającą na integracji AI z narzędziami produktywności takimi jak Grammarly, Coda i Mail, aby tworzyć spersonalizowane agentki AI, które zwiększają wydajność, respektując nawyki użytkowników. Odwołując się do swojego doświadczenia na YouTube, Mehrotra omówił wyzwania, z jakimi mierzą się twórcy w obliczu szybkiego rozwoju AI, w tym napięcia między istniejącymi systemami prawnymi a etycznym wykorzystaniem AI. Podkreślił potencjał AI do poprawy relacji między twórcami a użytkownikami oraz do generowania nowych źródeł przychodów, ale przyznał, że AI nie może w pełni oddać niuansów ludzkiej kreatywności. Rozmowa poruszyła także tematy presji branży, takich jak wysokie koszty licencji oraz konieczność tworzenia innowacyjnych modeli, które sprawiedliwie wynagradzają twórców, równoważąc korzyści dla użytkowników z prawami twórców wraz z rozwojem AI.Dzisiejsza rozmowa gości Shishira Mehrotra, CEO Superhuman — wcześniej znanej jako Grammarly, które nadal pozostaje jej flagowym produktem. Shishir pełnił również funkcję głównego oficjela produktu w YouTube i zasiada w zarządzie Spotify. Wywiad ten został zorganizowany początkowo z naciskiem na wpływ sztucznej inteligencji na oprogramowanie, platformy i kreatywność, ale szybko skoncentrował się na kontrowersyjnej funkcji Grammarly związanej z korzystaniem z AI do generowania sugestii pisarskich przypisywanych prawdziwym ekspertom bez ich zgody. W sierpniu Grammarly wprowadziło funkcję o nazwie Expert Review, która oferowała porady pisarskie generowane przez AI, inspirowane przez ekspertów m. in. dziennikarzy i osoby publiczne, bez ich zgody, co wywołało krytykę i pozew zbiorowy wszczęty przez Julię Angwin. Superhuman zareagował najpierw wprowadzeniem procesu rezygnacji przez e-mail, a następnie całkowitym wycofaniem tej funkcji, a Shishir publicznie przeprosił. Pomimo napięć i sprzeczek dotyczących naruszającej charakterystyki AI, Shishir wziął udział w szczerej rozmowie w serwisie Decoder, aby odnieść się do tych kwestii. Superhuman obecnie pozycjonuje się jako zestaw narzędzi produktywności bazujący na AI, integrujący asystenta AI w codziennych zadaniach w różnych aplikacjach — Grammarly, Coda, Mail oraz nowej platformie Superhuman Go, która pozwala każdemu tworzyć agentów AI funkcjonujących płynnie obok workflow użytkownika i znanego oprogramowania. Firma kładzie nacisk na to, by AI naturalnie integrowało się z pracą, zamiast wymuszać zmiany w zachowaniach, dotarła do 40 milionów aktywnych użytkowników dziennie, oferując spójne doświadczenie w różnych środowiskach cyfrowych. Gdy zapytano o kontrowersje wokół funkcji Expert Review — używania imion rzeczywistych ekspertów bez ich zgody — Shishir przyznał, że była to „zła funkcja”, niezgodna z ich strategią i źle przyjęta zarówno przez użytkowników, jak i ekspertów. Powstała przez mały zespół, który próbował sprostać oczekiwaniom użytkowników dotyczącym opinii ekspertów oraz utrzymania ciągłego kontaktu z ich audytoriami, ale nie przyniosła oczekiwanej wartości ani odpowiednio nie szanowała praw do autorstwa. Shishir podkreślił, że nie zamierzano nikogo podszywać, każde wygenerowane sugestie jasno odwoływały się do źródła inspiracji z linkami, a choć twierdzenia w pozwie są kwestionowane jako bezpodstawne, firma zdecydowała się wycofać funkcję wcześniej, jeszcze przed procesem, ponieważ kolidowało to z ich celami. W kwestii wynagrodzeń i praw autorskich Shishir zaznaczył, że właściwe przypisywanie jest podstawowe, ale różni się od impersonacji, której odrzuca. Wyobraża sobie platformę, na której twórcy mogą kontrolować, jak ich wiedza jest wykorzystywana, tworzyć agentów AI odzwierciedlających ich styl czy wskazówki, oraz zarabiać na tym poprzez modele podziału przychodów podobne do 70/30 stosowanych na YouTube.
Jednak ten system nie istniał w momencie uruchomienia Expert Review, co częściowo wyjaśniało, dlaczego opierał się na nieautoryzowanym użyciu. Wywiad poruszył także kwestie prawne dotyczące praw do imienia i wizerunku, wykorzystania komercyjnego oraz wyzwań związanych z AI dla prawa autorskiego. Shishir porównał tę sytuację do historii YouTube i kontrowersji związanych z Viacom i systemem Content ID, podkreślając, że prawo często wyprzedza innowacje technologiczne. Twierdził, że branża powinna dążyć do przekraczania minimalnych wymogów prawnych, aby uczciwie wspierać twórców, skupiając się na relacji i monetyzacji, a nie tylko na przypisywaniu praw. Odnosząc się do nieufności i obaw społecznych wobec AI — odwołując się do ankiet pokazujących, że AI jest postrzegane gorzej niż nawet niepopularne instytucje — Shishir przypisał je głównie lękom przed utratą miejsc pracy, a nie do obaw twórców. Uważa, że AI stworzy więcej miejsc pracy, niż ich zniknie, poprzez wspomaganie ludzkiej pracy, i pozycjonuje narzędzia Superhuman jako narzędzia umożliwiające użytkownikom stanie się „superczłowiekiem”. Przyznał, że twórcy napotykają coraz większe wyzwania, ponieważ AI zmienia dystrybucję i monetyzację treści, ale widzi w nowych platformach szanse, a nie zagrożenia. W odniesieniu do branży oprogramowania i obaw związanych z „SaaSpocalypse” — Shishir argumentował, że efekty sieciowe, ekosystemy i spójne doświadczenia użytkownika utrudniają łatwą konkurencję nawet mimo prostoty tworzenia oprogramowania i kosztów tokenów AI. Nie wierzy, że główni dostawcy AI po prostu skopiują i zniszczą produkty takie jak Grammarly, podkreślając, że kluczowa jest trwała innowacyjność i tworzenie wartości. W kontekście przyszłości monetyzacji i gospodarki twórców, Shishir wskazał na ciągłe zmiany od modeli opierających się na reklamach do subskrypcji i bezpośredniej sprzedaży produktów, gdzie twórcy wykorzystują głębokie relacje z odbiorcami do generowania trwałych dochodów. Wyobraża sobie, że agenci AI pozwolą twórcom skalować spersonalizowaną pomoc i zaangażowanie dla publiczności skłonnej płacić za tę wartość, choć nie wszyscy twórcy zdecydują się na tę drogę. Jakość tych doświadczeń opartych na AI w dużej mierze zależy od wysiłku twórców w zdefiniowaniu i szkoleniu swoich agentów. Rozmawiając o tym, czy AI może odtworzyć subtelny styl twórczy lub edycyjny człowieka, takiego jak Nilay Patel, Shishir przyznał, że nadal stoją przed wyzwaniami, ale jest optymistą, opierając się na sukcesach Grammarly i pierwszych wdrożeniach agentów, na przykład w sprzedaży czy pomaganiu w nauczaniu. Widzi początkowo rozwinięte nisze, w których guidance opiera się na klarownych regułach lub można go skutecznie modelować. Na koniec Shishir zapowiedział nadchodzące rozszerzenia Superhuman Go i podkreślił swoje zaangażowanie w budowanie platformy, na której użytkownicy i twórcy mogą współpracować z AI, przestrzegając standardów etycznych i tworząc nowe modele ekonomiczne, które wspierają twórców, a nie ich wyzyskują. Ogólnie mówiąc, ten szczegółowy wywiad szczerze bada wyzwania i szanse na styku AI, tworzenia treści, praw autorskich i modeli biznesowych z perspektywy CEO, który stawia czoła niedawnym kontrowersjom, jednocześnie kształtując przyszłość narzędzi wydajności opartych na AI.
Watch video about
Superhuman CEO Shishir Mehrotra o etyce AI, kontrowersjach wokół Grammarly i przyszłości produktywności opartej na sztucznej inteligencji
Try our premium solution and start getting clients — at no cost to you