SXSW - News #7 da Tribo
AI, AGI, implicações para a sociedade, a verdade, os artistas entre outros.
Voltei sexta de Austin, do meu primeiro SXSW. Amei. Muito conteúdo bom e muitos amigos pelos corredores, não tem como não ser especial. Assisti (pessoalmente ou virtualmente) a 20 sessões. E esse é o primeiro recorte do que me chamou atenção - com links pra algumas sessões pra vocês darem um duplo clique, CLARO!
AGI | Cada um define AGI (Artificial General Intelligence) de uma forma. A que pode responder “conhecimento” de forma ampla pode sim estar perto. A que raciocina, ou tem um modelo de mundo (world model) vai demorar. LLMs são baseadas em fala, elas escolhem as próximas palavras que vão ser bem aceitas pelo usuário dentro de um universo limitado das palavras do dicionário. O nosso pensamento e o mundo vai muito além disso. Uma pessoa bilingue por exemplo pensa na idéia e aí coloca elas em palavras em um idioma ou em outro. A gente entra em um ambiente e percebe uma série de coisas como os móveis, as pessoas, as texturas, as intenções, o clima entre a pessoas, a temperatura, a umidade, que teríamos muita dificuldade de explicar tudo em palavras. O Chat GPT pode passar no exame de BAR mas os computadores não conseguem fazer um robô andar como uma pessoa ou tirar a mesa e colocar a louca na maquina. Essas coisas que uma criança já domina aos 3 ou 10 anos.
QUEM SE IMPORTA COM A VERDADE? | Peter Deng é o Head do Chat GPT (VP de Consumer na Open AI) e a entrevista dele pro Josh Constine foi imperdível. Gostei do quanto AI pode ajudar a aprofundar a curiosidade humana e explorar grandes questões, nos ajudando a pensar e cristalizar nosso pensamento. E do questionamento sobre o quanto essas ferramentas vão ser formas de exportar os valores liberais americanos. Ele coloca que a meta da Open AI é democratizar o acesso à inteligência artificial como ferramenta para as pessoas removerem barreiras e alcançarem seus objetivos. Fazendo a coisa certa e desenvolvendo AI de forma responsável. Mas lançar o Chat GPT há quase 1,5 anos foi abrir a caixa de pandora. Acho o Sam Altman incrível, mas me preocupei com dois pontos em especial da conversa com o Peter Deng. Quando perguntado sobre como ele se sentiria se fosse um artista e estivessem usando a arte dele pra treinar o modelo, num evento cheio de criativos, sua melhor resposta foi um “boa pergunta”. E sobre a parte na qual o Josh pergunta “como vamos lidar com não saber se algo foi feito por AI ou por um humano?” E ele respondeu “e isso importa?”. E emendou a resposta de uma forma imensamente superficial. Gente, QUASE CAÍ DA CADEIRA! Como um cara tão importante pode ter uma visão tão limitada da importância disso e consequências que pode ter no mundo? Deep fake, manipulação eleitoral ameaçando a democracia, fake nudes, maior polarização… É aí que mora o problema TODO. Ter caras tecnicamente hipercapazes desenvolvendo ferramentas poderosas sem ter ideia (ou se preocupar a ponto de comentar no South By?!!) da consequência que isso pode ter. Quem aqui pensou no Mark Zuckerberg e social media? Como bem comentou a Ioana Taleanu (AI+UX: Product Design for Intelligent Experiences), ninguém na Meta estava pensando o que aquele botão de like poderia gerar na sociedade. A gente desenha a cadeira, e depois ela define como a gente se senta. “We shape our tools and right after our tools shape us” Marshall McLuhan
A VERDADE | Saí e fui pro AI and the Future of Truth com o Gary Marcus. Queria ter levado o Peter Deng pra lá comigo. Alí sim a conversa ficou boa sobre IA responsável. Gary foi pra cima. Dizer que é responsável e não remunerar quem fez os conteúdos no qual o modelo foi treinado não é ser responsável. Não é responsável pular o primeiro, segundo e terceiro trial ao desenvolver uma droga e colocar no mercado pra ver o que acontece e aprender (alô Open AI). E ouvir essas empresas dizendo que eles mesmo vão se regular é loucura. Veja o que aconteceu com mídia social. No começo o Google tinha como objetivo colocar o conteúdo online, depois que passou a vender publicidade. Quem sabe no futuro eles não vão vender ‘product placement’ como cobrar pela quantidade de vezes que ‘Coca-Cola’ aparece.
Aliás o livro da Kara Swisher, Burn Book, está incrível sobre o histórico e bastidores do mundo de tech, incluindo o tema de redes sociais e a Meta.
SUPERCOMUNICAÇÃO | Charles Duhigg, o autor do “O Poder do Hábito”, está lançando seu novo livro, Supercommunicators. A idéia principal é que existem 3 tipos de conversas, e que pra uma comunicação ser eficaz, as duas pessoas precisam estar encarando a conversa da mesma forma. Os 3 tipos são: conversas práticas (você quer ser ajudado?), emocionais (você quer ser entendido, abraçado?) ou sociais (quem nós somos?). Fazer perguntas profundas ajudam a entender o que as pessoas querem da conversa, e a ter conversas mais profundas. Imagina como um simples ”E o que você faz?” pode gerar uma conversa mais interessante se seguindo por um “Você sempre quis fazer isso? Me conta como chegou até aqui?”. A comunicação é o super poder do ser humano, ela nos permite a nos conectarmos com os outros. E a solidão equivale para a saúde a fumar 15 cigarros por dia (aliás ouvi essa frase algumas vezes). Quem quiser ver aqui tem o link da sessão, o cara é fantástico falando.
Eu sou a Fernanda Belfort. Marketeira de carreira, mãe, esposa, sobrevivente de câncer e hoje head do time de soluções para marketing da Salesforce. Comecei um grupo e um podcast chamados Tribo de Marketing em 2019, e sigo nessa jornada de uma lifelong learner que acredita na generosidade e abundância. AMO aprender e compartilhar. Um pouco de tudo, mas sempre com muito marketing e tech.
-Ouça o podcast da Tribo de Marketing.
-Siga no Instagram e no LinkedIn
-Acesse o Notion da Tribo de Marketing (beta) pra muito conteúdo legal e a Biblioteca da Tribo (todos os reports, e-books etc que passaram por mim desde 2020)!
-E mais umas coisinhas como uma aula que dei sobre AI no YouTube.