CEO da Superhuman, Shishir Mehrotra, fala sobre Ética em IA, Polêmica envolvendo Grammarly e o Futuro da Produtividade impulsionada por IA
Brief news summary
Em uma entrevista no podcast Decoder, o CEO da Superhuman, Shishir Mehrotra, abordou a controvérsia envolvendo o recurso Expert Review alimentado por IA da Grammarly, que sugeria edições atribuídas a especialistas sem seu consentimento, levando a uma reação negativa e a uma ação coletiva. Mehrotra reconheceu o erro, pediu desculpas e confirmou a remoção do recurso. Ele explicou a visão da Superhuman de integrar IA em ferramentas de produtividade como Grammarly, Coda e Mail, para criar agentes de IA personalizados que aumentem a eficiência, ao mesmo tempo em que respeitam os hábitos dos usuários. Baseando-se em sua experiência no YouTube, Mehrotra discutiu os desafios enfrentados pelos criadores diante do rápido crescimento da IA, incluindo tensões entre os sistemas jurídicos atuais e o uso ético da IA. Ele destacou o potencial da IA de melhorar as relações entre criadores e usuários e gerar novas fontes de receita, mas também reconheceu que a IA não pode reproduzir completamente a complexidade da criatividade humana. A conversa também abordou pressões do setor, como altos custos de licenciamento e a necessidade de modelos inovadores que remunerem justamente os criadores, equilibrando os benefícios para os usuários com os direitos dos criadores à medida que a IA evolui.A conversa de hoje apresenta Shishir Mehrotra, CEO da Superhuman — anteriormente conhecida como Grammarly, que mantém seu produto principal. Shishir também atuou como chefe de produto do YouTube e ocupa uma cadeira no conselho do Spotify. Esta entrevista foi inicialmente planejada com foco no impacto da IA em softwares, plataformas e criatividade, mas logo se concentrou numa questão polêmica envolvendo uma funcionalidade do Grammarly que sugeria textos gerados por IA, atribuídos a especialistas reais sem permissão. Em agosto, a Grammarly lançou um recurso chamado Expert Review, que oferecia conselhos de escrita gerados por IA inspirados por especialistas, incluindo jornalistas e figuras públicas, sem o consentimento deles, provocando uma reação negativa e uma ação coletiva liderada por Julia Angwin. A Superhuman respondeu inicialmente criando um processo de opt-out por email e, posteriormente, descontinuando a funcionalidade por completo, com Shishir pedindo desculpas publicamente. Apesar da tensão e das divergências sobre a natureza extrativa da IA, Shishir participou desta entrevista franca com o Decoder para abordar essas questões. Atualmente, a Superhuman posiciona-se como uma suíte de produtividade nativa em IA, integrando assistência de IA ao trabalho cotidiano em múltiplos aplicativos — Grammarly, Coda, Mail e uma nova plataforma, o Superhuman Go, que permite a qualquer pessoa criar agentes de IA que operem de forma integrada ao fluxo de trabalho do usuário e softwares familiares. O foco da empresa é fazer a IA se misturar de forma discreta ao trabalho, ao invés de exigir mudanças de comportamento, atingindo 40 milhões de usuários ativos diários com uma experiência integrada em diversos ambientes digitais. Quando questionado sobre a controvérsia do recurso Expert Review — que utilizava nomes de especialistas reais sem consentimento — Shishir reconheceu que era uma “recurso ruim”, desalinhada com a estratégia da empresa e mal recebida por usuários e especialistas. Seu desenvolvimento foi feito por uma equipe pequena tentando atender ao desejo dos usuários por feedback de especialistas e oferecer aos expertos uma conexão contínua com seu público, mas a funcionalidade falhou em entregar valor ou em fazer a devida atribuição de forma adequada. Shishir enfatizou que a personificação nunca foi a intenção, que cada sugestão gerada claramente atribui a fonte de inspiração com links, e que, embora os argumentos na ação judicial sejam considerados infundados, a empresa optou por descontinuar o recurso logo no início, antes mesmo do processo, porque ele conflitava com seus objetivos. Sobre remuneração e atribuição, Shishir destacou que a atribuição adequada é fundamental, mas distinta da personificação, que ele rejeita. Ele imagina uma plataforma onde os criadores possam controlar como sua expertise é usada, construir “agentes” de IA que incorporem seu estilo ou orientação, e monetizar suas contribuições por meio de modelos de divisão de receita semelhantes ao 70/30 do YouTube.
Contudo, esse sistema não estava em vigor quando o Expert Review foi lançado, o que ajuda a explicar por que ele dependia de uso não autorizado. A entrevista também abordou nuances legais sobre direitos de nome e imagem, uso comercial e os desafios que a IA apresenta à legislação de direitos autorais. Shishir comparou a situação à história do YouTube com controvérsias de direitos autorais, como o processo da Viacom e o sistema Content ID, ressaltando que a legislação costuma ficar atrás da inovação tecnológica. Ele argumenta que o setor deve buscar ultrapassar os padrões mínimos legais para apoiar criadores de forma justa, enfatizando a conexão e a monetização mais do que apenas a atribuição. Ao falar sobre a desconfiança pública e o medo da IA — citando pesquisas que mostram uma percepção ruim da IA até mesmo em relação a instituições impopulares — Shishir atribui isso principalmente ao medo de perda de empregos, e não a preocupações específicas dos criadores. Acredita que a IA criará mais empregos do que destruirá, ao aumentar a eficiência do trabalho humano, posicionando as ferramentas da Superhuman como capacitores para que os usuários se tornem “super-humanos”. Ele reconhece que os criadores enfrentam desafios crescentes com a mudança na distribuição e monetização de conteúdo, mas vê as novas plataformas como oportunidades e não ameaças. Sobre a indústria de softwares mais ampla e os temores de um “SaaSpocalypse”, Shishir argumenta que efeitos de rede, ecossistemas integrados e experiências consistentes impedem uma disrupção fácil — mesmo que construir softwares seja mais fácil e que tokens de IA tenham custo. Ele não acredita que grandes provedores de IA simplesmente irão copiar e extinguir produtos como Grammarly, destacando que a inovação contínua e a criação de valor são essenciais. Em relação ao futuro da monetização e das economias de criadores, Shishir destacou a mudança contínua de modelos baseados em publicidade para assinaturas e vendas diretas de produtos, com criadores aproveitando conexões profundas para gerar renda sustentável. Ele imagina que os agentes de IA permitirão que os criadores escalem atendimentos personalizados e interações com seu público disposto a pagar por esse valor, embora nem todos os criadores adotem esse caminho. A qualidade dessas experiências alimentadas por IA depende muito do esforço dos criadores em definir e treinar seus agentes. Ao discutir se a IA pode replicar a criatividade e o estilo de edição de um editor humano como Nilay Patel, Shishir admitiu que ainda há desafios, mas manifestou otimismo baseado no sucesso da Grammarly e em implantações iniciais de agentes, como suporte a vendas ou ensino. Ele vê inicialmente nichos de especialistas prosperando, especialmente onde a orientação seguir regras mais claras ou pode ser modelada de forma eficaz. Por fim, Shishir anunciou futuras expansões do Superhuman Go e reafirmou o compromisso de construir uma plataforma onde usuários e criadores colaborem com IA, mantendo padrões éticos e criando novos modelos econômicos que empoderem os criadores ao invés de explorá-los. De modo geral, essa entrevista aprofundada explora honestamente os desafios e oportunidades no cruzamento entre IA, criação de conteúdo, atribuição e modelos de negócio, sob a perspectiva de um CEO que navega por controvérsias recentes enquanto molda o futuro das ferramentas de produtividade alimentadas por IA.
Watch video about
CEO da Superhuman, Shishir Mehrotra, fala sobre Ética em IA, Polêmica envolvendo Grammarly e o Futuro da Produtividade impulsionada por IA
Try our premium solution and start getting clients — at no cost to you