{"id":192123,"date":"2025-12-17T15:04:23","date_gmt":"2025-12-17T15:04:23","guid":{"rendered":"https:\/\/www.europesays.com\/pt\/192123\/"},"modified":"2025-12-17T15:04:23","modified_gmt":"2025-12-17T15:04:23","slug":"oculos-da-meta-usa-ia-para-sugerir-musicas-no-spotify","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/pt\/192123\/","title":{"rendered":"\u00d3culos da Meta usa IA para sugerir m\u00fasicas no Spotify"},"content":{"rendered":"<p class=\"fitec-embcmp\"><a href=\"https:\/\/profile.google.com\/cp\/CgsvZy8xMjFqY2oxMw\" target=\"_blank\" class=\"ftecmp-button\" rel=\"nofollow noopener\">Siga o Olhar Digital no Google Discover<\/a><\/p>\n<p><strong>A <a href=\"https:\/\/olhardigital.com.br\/tag\/meta\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Meta<\/a> come\u00e7ou a liberar uma atualiza\u00e7\u00e3o para seus \u00f3culos inteligentes nesta semana. O update amplia, de forma pr\u00e1tica, o que o acess\u00f3rio consegue fazer no dia a dia.<\/strong> A principal novidade \u00e9 uma integra\u00e7\u00e3o entre <strong>Meta AI<\/strong> e <strong><a href=\"https:\/\/olhardigital.com.br\/tag\/spotify\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Spotify<\/a><\/strong> que permite tocar m\u00fasicas ou criar playlists com base no que o usu\u00e1rio est\u00e1 vendo. Junto disso, chega um recurso pensado para facilitar conversas em ambientes barulhentos.<\/p>\n<p><strong>As fun\u00e7\u00f5es fazem parte da vers\u00e3o 21 do software dos \u00f3culos Ray-Ban Meta e Oakley Meta HSTN.<\/strong> A libera\u00e7\u00e3o \u00e9 gradual e come\u00e7a pelos usu\u00e1rios inscritos no programa <strong>Early Access<\/strong>, mas j\u00e1 indica o caminho da Meta: transformar os \u00f3culos inteligentes em assistentes ativos, capazes de conectar vis\u00e3o, \u00e1udio e contexto de forma quase autom\u00e1tica.<\/p>\n<p>A integra\u00e7\u00e3o com o <strong>Spotify<\/strong> \u00e9 apresentada pela Meta como sua primeira experi\u00eancia musical realmente multimodal (isto \u00e9, que cruza o que o usu\u00e1rio v\u00ea com a\u00e7\u00f5es dentro de um aplicativo). Na pr\u00e1tica, basta um comando de voz para pedir que os \u00f3culos toquem uma m\u00fasica ou criem uma playlist que \u201ccombine\u201d com a cena \u00e0 frente.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"577\" src=\"https:\/\/www.europesays.com\/pt\/wp-content\/uploads\/2025\/12\/spotify-e1765981334415-1024x577.jpg\" alt=\"spotify\" class=\"wp-image-1201797\"  \/>Se a pessoa estiver olhando para a capa de um \u00e1lbum, por exemplo, os \u00f3culos da Meta podem tocar uma m\u00fasica daquele artista no Spotify (Imagem: PJ McDonnell\/Shutterstock)<\/p>\n<p>O funcionamento \u00e9 simples de entender. Se a pessoa estiver olhando para a capa de um \u00e1lbum, por exemplo, os \u00f3culos podem tocar uma faixa daquele artista. Se o cen\u00e1rio for uma decora\u00e7\u00e3o de Natal ou um ambiente festivo, a IA tenta puxar m\u00fasicas que combinem com aquele clima, usando os sistemas de recomenda\u00e7\u00e3o do Spotify.<\/p>\n<p><a href=\"https:\/\/about.fb.com\/news\/2025\/12\/updates-to-meta-ai-glasses-conversation-focus-spotify-integration\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Segundo a Meta<\/a>, a ideia \u00e9 unir vis\u00e3o computacional (capacidade de reconhecer o que est\u00e1 no campo de vis\u00e3o da pessoa) com a personaliza\u00e7\u00e3o do Spotify, que j\u00e1 conhece os gostos do usu\u00e1rio. O resultado \u00e9 uma trilha sonora pensada para aquele momento espec\u00edfico, sem que seja preciso pegar o celular ou procurar manualmente.<\/p>\n<p>Mesmo assim, a pr\u00f3pria empresa admite que o recurso ainda tem p\u00e9 no experimental. Ele funciona mais como uma demonstra\u00e7\u00e3o do que a Meta pretende fazer com IA multimodal do que como uma ferramenta essencial. Ainda assim, chama aten\u00e7\u00e3o por estar dispon\u00edvel em mais mercados, incluindo o <strong>Brasil<\/strong>, desde que o uso seja em ingl\u00eas.<\/p>\n<p>A outra novidade da atualiza\u00e7\u00e3o \u00e9 o <strong>Conversation Focus<\/strong>, recurso pensado para quem tem dificuldade de ouvir algu\u00e9m em ambientes barulhentos. Anunciado meses atr\u00e1s no evento Meta Connect, ele come\u00e7a agora a chegar aos \u00f3culos compat\u00edveis por meio do novo software.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"576\" src=\"https:\/\/www.europesays.com\/pt\/wp-content\/uploads\/2025\/12\/Oculos-Meta-IA-Conversation-Focus-1024x576.jpg\" alt=\"Montagem mostrando mulher usando \u00f3culos Ray-Ban da Meta com recurso Conversation Focus ativado\" class=\"wp-image-1235157\"  \/>Conversation Focus foi pensado para quem tem dificuldade de ouvir algu\u00e9m em ambientes barulhentos (Imagem: Divulga\u00e7\u00e3o\/Meta)<\/p>\n<p>A ideia \u00e9 usar os <strong>microfones direcionais<\/strong> e os <strong>alto-falantes abertos<\/strong> dos \u00f3culos para amplificar a voz da pessoa com quem o usu\u00e1rio est\u00e1 conversando. O som fica levemente destacado, o que ajuda a separar a fala do barulho ao redor.<\/p>\n<p>O n\u00edvel dessa amplifica\u00e7\u00e3o pode ser ajustado pelo pr\u00f3prio usu\u00e1rio, seja com gestos no bra\u00e7o dos \u00f3culos, por comandos de voz ou pelas configura\u00e7\u00f5es do dispositivo. A ideia \u00e9 adaptar o volume ao ambiente, por exemplo: um restaurante cheio, um trem lotado ou um evento ao ar livre.<\/p>\n<p><strong>Leia mais:<\/strong><\/p>\n<p>A Meta faz quest\u00e3o de deixar claro que o Conversation Focus n\u00e3o \u00e9 um recurso m\u00e9dico nem uma ferramenta formal de acessibilidade. Ele \u00e9 apresentado como um ganho pr\u00e1tico para o uso cotidiano. Por enquanto, a fun\u00e7\u00e3o fica restrita aos <strong>Estados Unidos e ao Canad\u00e1<\/strong>, tamb\u00e9m via <strong>Early Access<\/strong>, nos modelos <strong>Ray-Ban Meta<\/strong> e <strong>Oakley Meta HSTN<\/strong>.<\/p>\n<p>\t\t\t\t\t&#13;<br \/>\n\t\t\t\t\t&#13;<\/p>\n","protected":false},"excerpt":{"rendered":"Siga o Olhar Digital no Google Discover A Meta come\u00e7ou a liberar uma atualiza\u00e7\u00e3o para seus \u00f3culos inteligentes&hellip;\n","protected":false},"author":2,"featured_media":192124,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[109,107,108,32,33,105,103,104,106,110],"class_list":{"0":"post-192123","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-ciencia-e-tecnologia","8":"tag-ciencia","9":"tag-ciencia-e-tecnologia","10":"tag-cienciaetecnologia","11":"tag-portugal","12":"tag-pt","13":"tag-science","14":"tag-science-and-technology","15":"tag-scienceandtechnology","16":"tag-technology","17":"tag-tecnologia"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@pt\/115735525254665192","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/192123","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/comments?post=192123"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/posts\/192123\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media\/192124"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/media?parent=192123"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/categories?post=192123"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/pt\/wp-json\/wp\/v2\/tags?post=192123"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}