Zephyrnet Logo

As tendências mais importantes de IA em 2024 – IBM Blog

Data:


As tendências mais importantes de IA em 2024 – IBM Blog



Direcionando sua equipe ao longo de seu plano para o sucesso

2022 foi o ano em que a inteligência artificial generativa (IA) explodiu na consciência pública e 2023 foi o ano em que começou a criar raízes no mundo dos negócios. 2024 será, portanto, um ano crucial para o futuro da IA, à medida que investigadores e empresas procuram estabelecer como este salto evolutivo na tecnologia pode ser integrado de forma mais prática na nossa vida quotidiana.

A evolução da IA ​​generativa espelhou a dos computadores, embora num cronograma dramaticamente acelerado. Grandes computadores mainframe operados centralmente de alguns players deram lugar a máquinas menores e mais eficientes, acessíveis a empresas e instituições de pesquisa. Nas décadas que se seguiram, avanços incrementais produziram computadores domésticos que os amadores poderiam usar. Com o tempo, computadores pessoais poderosos com interfaces intuitivas sem código tornaram-se onipresentes.

A IA generativa já atingiu a sua fase “hobista” – e tal como acontece com os computadores, o progresso adicional visa alcançar um maior desempenho em pacotes mais pequenos. 2023 viu uma explosão de tecnologias cada vez mais eficientes modelos de fundação com licenças abertas, começando com o lançamento da família LlaMa de grandes modelos de linguagem (LLMs) da Meta e seguida por nomes como StableLM, Falcon, Mistral e lhama 2. DeepFloyd e Stable Diffusion alcançaram paridade relativa com os principais modelos proprietários. Aprimorados com técnicas de ajuste fino e conjuntos de dados desenvolvidos pela comunidade de código aberto, muitos modelos abertos agora podem superar todos os modelos de código fechado, exceto os mais poderosos, na maioria dos benchmarks, apesar de contagens de parâmetros muito menores.

À medida que o ritmo do progresso acelera, as capacidades cada vez maiores dos modelos de última geração atrairão a maior atenção dos meios de comunicação social. Mas os desenvolvimentos mais impactantes podem ser aqueles focados em governança, middleware, técnicas de treinamento e pipelines de dados que tornam a IA generativa mais digno de confiança, sustentável e acessível, tanto para empresas como para utilizadores finais.

Aqui estão algumas tendências atuais importantes de IA a serem observadas no próximo ano.

  • Verificação da realidade: expectativas mais realistas
  • IA multimodal
  • Modelos de linguagem menor (mais) e avanços de código aberto
  • Escassez de GPU e custos de nuvem
  • A otimização do modelo está se tornando mais acessível
  • Modelos locais e pipelines de dados personalizados
  • Agentes virtuais mais poderosos
  • Regulamentação, direitos autorais e questões éticas de IA
  • Shadow AI (e políticas corporativas de IA)

Verificação da realidade: expectativas mais realistas

Quando a IA generativa atingiu pela primeira vez a consciência das massas, o conhecimento de um líder empresarial típico vinha principalmente de materiais de marketing e de uma cobertura de notícias sem fôlego. A experiência tangível (se houver) limitou-se a brincar com ChatGPT e DALL-E. Agora que a poeira baixou, a comunidade empresarial tem agora uma compreensão mais refinada das soluções baseadas em IA.

O Gartner Hype Cycle posiciona a IA generativa diretamente no “Pico das Expectativas Inflacionadas”, à beira de um deslizamento para o “Vale da Desilusão”[I]— por outras palavras, prestes a entrar num período de transição (relativamente) desanimador — enquanto o relatório “Estado da IA ​​gerada na empresa” da Deloitte do primeiro trimestre de 1 indicou que muitos líderes “esperam impactos transformadores substanciais no curto prazo”.[Ii] A realidade provavelmente ficará no meio-termo: a IA generativa oferece oportunidades e soluções únicas, mas não será tudo para todos.

A comparação dos resultados do mundo real com o hype é parcialmente uma questão de perspectiva. Ferramentas autônomas como ChatGPT normalmente ocupam o centro do imaginário popular, mas a integração suave em serviços estabelecidos geralmente rende mais poder de permanência. Antes do atual ciclo de hype, as ferramentas generativas de aprendizado de máquina, como o recurso “Smart Compose”, lançado pelo Google em 2018, não eram anunciadas como uma mudança de paradigma, apesar de serem arautos dos atuais serviços de geração de texto. Da mesma forma, muitas ferramentas de IA generativa de alto impacto estão sendo implementadas como elementos integrados de ambientes empresariais que melhoram e complementam, em vez de revolucionarem ou substituirem, ferramentas existentes: por exemplo, recursos “Copilot” no Microsoft Office, recursos “Generative Fill” no Adobe Photoshop ou agentes virtuais em aplicativos de produtividade e colaboração.

O local onde a IA generativa primeiro cria impulso nos fluxos de trabalho diários terá mais influência no futuro das ferramentas de IA do que a hipotética vantagem de quaisquer capacidades específicas de IA. De acordo com um recente Pesquisa da IBM com mais de 1,000 funcionários em empresas de escala empresarial, os três principais factores que impulsionaram a adopção da IA ​​foram os avanços nas ferramentas de IA que as tornam mais acessíveis, a necessidade de reduzir custos e automatizar processos-chave e a quantidade crescente de IA incorporada em aplicações empresariais padrão e prontas a utilizar.

multimodal IA (e vídeo)

Dito isto, a ambição da IA ​​generativa de última geração está a crescer. A próxima onda de avanços concentrar-se-á não só na melhoria do desempenho num domínio específico, mas também na multimodal modelos que pode receber vários tipos de dados como entrada. Embora os modelos que operam em diferentes modalidades de dados não sejam um fenômeno estritamente novo - modelos de texto para imagem como CLIP e modelos de fala para texto como Wave2Vec já existem há anos - eles normalmente operam apenas em uma direção e foram treinados para realizar uma tarefa específica.

A próxima geração de modelos interdisciplinares, incluindo modelos proprietários como GPT-4V da OpenAI ou Gemini do Google, bem como modelos de código aberto como LLaVa, Adept ou Qwen-VL, pode mover-se livremente entre processamento de linguagem natural (PNL) e tarefas de visão computacional. Novos modelos também estão trazendo vídeo na dobra: no final de janeiro, o Google anunciou o Lumiere, um modelo de difusão de texto para vídeo que também pode realizar tarefas de imagem para vídeo ou usar imagens para referência de estilo.

O benefício mais imediato da IA ​​multimodal são aplicativos de IA e assistentes virtuais mais intuitivos e versáteis. Os usuários podem, por exemplo, perguntar sobre uma imagem e receber uma resposta em linguagem natural, ou pedir em voz alta instruções para consertar algo e receber recursos visuais junto com instruções de texto passo a passo.

Num nível superior, a IA multimodal permite que um modelo processe entradas de dados mais diversas, enriquecendo e expandindo as informações disponíveis para treinamento e inferência. O vídeo, em particular, oferece um grande potencial para a aprendizagem holística. “Existem câmeras que ficam ligadas 24 horas por dia, 7 dias por semana e capturam o que acontece exatamente como acontece, sem qualquer filtragem, sem qualquer intencionalidade”, diz Peter Norvig, Distinguished Education Fellow do Stanford Institute for Human-Centered Artificial Intelligence (HAI). .[III] “Os modelos de IA nunca tiveram esse tipo de dados antes. Esses modelos apenas terão uma melhor compreensão de tudo.”

Modelos de linguagem menor (mais) e avanços de código aberto

Em modelos específicos de domínio – especialmente LLMs – provavelmente chegamos ao ponto de diminuir os retornos de contagens maiores de parâmetros. Sam Altman, CEO da OpenAI (cujo modelo GPT-4 supostamente tem cerca de 1.76 trilhão parâmetros), sugeriu isso no evento Imaginação em Ação do MIT em abril passado: “Acho que estamos no fim da era em que serão esses modelos gigantes, e vamos torná-los melhores de outras maneiras”, previu ele . “Acho que tem havido muito foco na contagem de parâmetros.”

Modelos enormes deram início a esta era de ouro da IA, mas apresentam desvantagens. Somente as maiores empresas possuem fundos e espaço em servidores para treinar e manter modelos que consomem muita energia e com centenas de bilhões de parâmetros. De acordo com uma estimativa da Universidade de Washington, o treinamento de um único modelo de tamanho GPT-3 requer o anual consumo de eletricidade de mais de 1,000 domicílios; um dia padrão de consultas ChatGPT rivaliza com o consumo diário de energia de 33,000 residências nos EUA.[IV]

Enquanto isso, modelos menores consomem muito menos recursos. Um influente Artigo de março de 2022 da Deepmind demonstrou que treinar modelos menores com mais dados produz melhor desempenho do que treinar modelos maiores com menos dados. Grande parte da inovação em curso nos LLMs concentrou-se, portanto, em produzir maiores resultados com menos parâmetros. Conforme demonstrado pelo progresso recente de modelos na faixa de 3 a 70 bilhões de parâmetros, especialmente aqueles construídos sobre modelos de fundação LLaMa, Llama 2 e Mistral em 2023, os modelos podem ser reduzidos sem muito sacrifício de desempenho.

O poder dos modelos abertos continuará a crescer. Em dezembro de 2023, Mistral lançou “Mixtral”, um mistura de especialistas (MoE) modelo integrando 8 redes neurais, cada uma com 7 bilhões de parâmetros. Mistral afirma que Mixtral não apenas supera a variante de parâmetro 70B do Llama 2 na maioria dos benchmarks com velocidades de inferência 6 vezes mais rápidas, mas que até iguala ou supera o desempenho do OpenAI. longe maior GPT-3.5 na maioria dos benchmarks padrão. Pouco tempo depois, a Meta anunciou em janeiro que já iniciou o treinamento dos modelos Llama 3, e confirmou que eles serão de código aberto. Embora os detalhes (como o tamanho do modelo) não tenham sido confirmados, é razoável esperar que o Llama 3 siga a estrutura estabelecida nas duas gerações anteriores.

Esses avanços em modelos menores trazem três benefícios importantes:

  • Eles ajudam a democratizar a IA: modelos menores que podem ser executados a custos mais baixos em hardware mais acessível capacitam mais amadores e instituições a estudar, treinar e melhorar os modelos existentes.
  • Eles podem ser executados localmente em dispositivos menores: isso permite IA mais sofisticada em cenários como computação de ponta e internet das coisas (IoT). Além disso, executar modelos localmente – como no smartphone de um usuário – ajuda a evitar muitas preocupações de privacidade e segurança cibernética que surgem da interação com dados pessoais ou proprietários confidenciais.
  • Eles tornam a IA mais explicável: quanto maior o modelo, mais difícil será identificar como e onde ele toma decisões importantes. IA explicável é essencial para compreender, melhorar e confiar nos resultados dos sistemas de IA.

Escassez de GPU e custos de nuvem

A tendência para modelos mais pequenos será impulsionada tanto pela necessidade como pelo vigor empresarial, à medida que os custos da computação em nuvem aumentam à medida que a disponibilidade de hardware diminui.

“As grandes empresas (e muitas delas) estão todas tentando trazer recursos de IA internamente, e há uma certa corrida às GPUs”, diz James Landay, vice-diretor e diretor de pesquisa do corpo docente da Stanford HAI. “Isso criará uma enorme pressão não apenas para o aumento da produção de GPU, mas para que os inovadores apresentem soluções de hardware que sejam mais baratas e fáceis de fabricar e usar.”1

Como explica um relatório O'Reilly do final de 2023, os fornecedores de cloud suportam atualmente grande parte da carga informática: relativamente poucos adotantes de IA mantêm a sua própria infraestrutura e a escassez de hardware apenas aumentará os obstáculos e os custos de configuração de servidores locais. A longo prazo, isto poderá exercer uma pressão ascendente sobre os custos da nuvem, à medida que os fornecedores atualizam e otimizam a sua própria infraestrutura para satisfazer eficazmente a procura da IA ​​generativa.[V]

Para as empresas, navegar neste cenário incerto requer flexibilidade, em termos de ambos os modelos – apoiando-se em modelos menores e mais eficientes quando necessário ou modelos maiores e com melhor desempenho quando prático – e no ambiente de implantação. “Não queremos restringir onde as pessoas implantam [um modelo]”, disse o CEO da IBM, Arvind Krishna, em um comunicado. Entrevista de dezembro de 2023 para a CNBC, em referência ao IBM watsonx plataforma. “Então, [se] eles quiserem implantá-lo em uma grande nuvem pública, faremos isso lá. Se eles quiserem implantá-lo na IBM, faremos isso na IBM. Se eles quiserem fazer isso por conta própria e tiverem infraestrutura suficiente, nós faremos isso lá.”

A otimização do modelo está se tornando mais acessível

A tendência de maximizar o desempenho de modelos mais compactos é bem servida pelos resultados recentes da comunidade de código aberto. 

Muitos avanços importantes foram (e continuarão a ser) impulsionados não apenas por novos modelos básicos, mas por novas técnicas e recursos (como conjuntos de dados de código aberto) para treinamento, ajustes, ajustes finos ou alinhamento de modelos pré-treinados. Técnicas independentes de modelo notáveis ​​​​que tomaram conta em 2023 incluem:

  • Adaptação de classificação baixa (LoRA): Em vez de ajustar diretamente bilhões de parâmetros do modelo, LoRA envolve o congelamento de pesos de modelo pré-treinados e a injeção de camadas treináveis ​​- que representam a matriz de alterações nos pesos do modelo como 2 menores (classificação inferior) matrizes - em cada bloco do transformador. Isso reduz drasticamente o número de parâmetros que precisam ser atualizados, o que, por sua vez, acelera drasticamente o ajuste fino e reduz a memória necessária para armazenar atualizações de modelos.
  • Quantização: Assim como diminuir a taxa de bits de áudio ou vídeo para reduzir o tamanho e a latência do arquivo, a quantização diminui a precisão usada para representar pontos de dados do modelo (por exemplo, de ponto flutuante de 16 bits para número inteiro de 8 bits) para reduzir o uso de memória e acelerar a inferência. QLoRA técnicas combinam quantização com LoRA.
  • Otimização de preferência direta (DPO): Os modelos de chat normalmente usam Aprendizagem por reforço a partir do feedback humano (RLHF) para alinhar os resultados do modelo às preferências humanas. Embora poderoso, o RLHF é complexo e instável. O DPO promete benefícios semelhantes, ao mesmo tempo que é computacionalmente leve e substancialmente mais simples.

Juntamente com avanços paralelos em modelos de código aberto no espaço de 3 a 70 mil milhões de parâmetros, estas técnicas em evolução poderão mudar a dinâmica do panorama da IA, fornecendo aos intervenientes mais pequenos, como startups e amadores, capacidades sofisticadas de IA que anteriormente estavam fora do alcance.

Modelos locais e pipelines de dados personalizados

As empresas em 2024 poderão, assim, buscar a diferenciação por meio do desenvolvimento de modelos personalizados, em vez de construir invólucros em torno de serviços reempacotados da “Grande IA”. Com os dados certos e a estrutura de desenvolvimento, os modelos e ferramentas de IA de código aberto existentes podem ser adaptados para praticamente qualquer cenário do mundo real, desde uso de suporte ao cliente até gerenciamento da cadeia de suprimentos e análise complexa de documentos.

Os modelos de código aberto oferecem às organizações a oportunidade de desenvolver poderosos modelos de IA personalizados — treinados em seus dados proprietários e ajustados para suas necessidades específicas — rapidamente, sem investimentos em infraestrutura proibitivamente caros. Isto é especialmente relevante em domínios como jurídico, saúde ou finanças, onde vocabulário e conceitos altamente especializados podem não ter sido aprendidos pelos modelos básicos na pré-formação.

Jurídico, financeiro e de saúde também são excelentes exemplos de indústrias que podem beneficiar de modelos suficientemente pequenos para serem executados localmente em hardware modesto. Manter o treinamento, inferência e geração aumentada de recuperação (RAG) local evita o risco de dados proprietários ou informações pessoais confidenciais serem usadas para treinar modelos de código fechado ou de outra forma passarem pelas mãos de terceiros. E usar o RAG para acessar informações relevantes, em vez de armazenar todo o conhecimento diretamente no próprio LLM, ajuda a reduzir o tamanho do modelo, aumentando ainda mais a velocidade e reduzindo custos.

À medida que 2024 continua a nivelar o campo de atuação do modelo, a vantagem competitiva será cada vez mais impulsionada por pipelines de dados proprietários que permitem o melhor ajuste do setor.

Agentes virtuais mais poderosos

Com ferramentas mais sofisticadas e eficientes e um ano de feedback do mercado à sua disposição, as empresas estão preparadas para expandir os casos de uso de agentes virtuais além de simples chatbots de experiência do cliente.

À medida que os sistemas de IA aceleram e incorporam novos fluxos e formatos de informação, expandem as possibilidades não apenas de comunicação e seguimento de instruções, mas também de automatização de tarefas. “2023 foi o ano em que pudemos conversar com uma IA. Várias empresas lançaram algo, mas a interação sempre foi você digitar algo e ele digitar algo de volta”, diz Norvig, de Stanford. “Em 2024, veremos a capacidade dos agentes fazerem coisas para você. Faça reservas, planeje uma viagem, conecte-se a outros serviços.”

A IA multimodal, em particular, aumenta significativamente as oportunidades de interação perfeita com agentes virtuais. Por exemplo, em vez de simplesmente pedir receitas a um bot, um usuário pode apontar uma câmera para uma geladeira aberta e solicitar receitas que podem ser feitas com os ingredientes disponíveis. Be My Eyes, um aplicativo móvel que conecta indivíduos cegos e com baixa visão a voluntários para ajudar em tarefas rápidas, está testando ferramentas de IA que ajudam os usuários a interagir diretamente com o ambiente ao seu redor por meio de IA multimodal, em vez de esperar por um voluntário humano.

Explore o IBM watsonx™ Assistant: IA conversacional líder de mercado com integração perfeita para as ferramentas que potencializam seus negócios →

Regulamentação, direitos autorais e questões éticas de IA

Capacidades multimodais elevadas e barreiras de entrada reduzidas também abrem novas portas para abusos: deepfakes, questões de privacidade, perpetuação de preconceitos e até mesmo a evasão das salvaguardas CAPTCHA podem tornar-se cada vez mais fáceis para os malfeitores. Em janeiro de 2024, uma onda de deepfakes explícitos de celebridades atingiu as redes sociais; uma pesquisa de maio de 2023 indicou que houve 8 vezes mais deepfakes de voz postados online em comparação com o mesmo período de 2022.[Vi]

A ambiguidade no ambiente regulamentar pode atrasar a adopção, ou pelo menos uma implementação mais agressiva, a curto e médio prazo. Existe um risco inerente a qualquer investimento importante e irreversível numa tecnologia ou prática emergente que possa exigir uma reformulação significativa — ou mesmo tornar-se ilegal — na sequência de nova legislação ou de alterações nos obstáculos políticos nos próximos anos.

Em dezembro de 2023, a União Europeia (UE) alcançou acordo provisório sobre a Lei da Inteligência Artificial. Entre outras medidas, proíbe a recolha indiscriminada de imagens para criar bases de dados de reconhecimento facial, sistemas de categorização biométrica com potencial de preconceito discriminatório, sistemas de “pontuação social” e a utilização de IA para manipulação social ou económica. Procura também definir uma categoria de sistemas de IA de “alto risco”, com potencial para ameaçar a segurança, os direitos fundamentais ou o Estado de direito, que estarão sujeitos a supervisão adicional. Da mesma forma, estabelece requisitos de transparência para o que chama de sistemas de “IA de uso geral (GPAI)” – modelos básicos – incluindo documentação técnica e testes adversários sistêmicos.

Mas embora alguns intervenientes importantes, como a Mistral, residam na UE, a maior parte do desenvolvimento inovador da IA ​​está a acontecer na América, onde a legislação substantiva da IA ​​no sector privado exigirá acção do Congresso – o que pode ser improvável num ano eleitoral. Em 30 de outubro, a administração Biden emitiu um ordem executiva abrangente detalhando 150 requisitos para uso de tecnologias de IA por agências federais; meses antes, a administração garantiu compromissos voluntários de desenvolvedores proeminentes de IA aderir a certas proteções para confiança e segurança. Notavelmente, tanto a Califórnia como o Colorado estão a prosseguir activamente a sua própria legislação relativa aos direitos de privacidade de dados dos indivíduos no que diz respeito à inteligência artificial.

A China avançou de forma mais proativa em direção às restrições formais à IA, proibindo a discriminação de preços através de algoritmos de recomendação nas redes sociais e obrigando a rotulagem clara do conteúdo gerado pela IA. As regulamentações prospectivas sobre IA generativa procuram exigir que os dados de treinamento usados ​​para treinar LLMs e o conteúdo subsequentemente gerado pelos modelos sejam “verdadeiros e precisos”, o que os especialistas tomaram para indicar medidas para censurar a produção de LLM.

Entretanto, o papel do material protegido por direitos de autor na formação de modelos de IA utilizados para geração de conteúdos, desde modelos de linguagem a geradores de imagens e modelos de vídeo, continua a ser uma questão fortemente contestada. O resultado do alto perfil ação movida pelo New York Times contra OpenAI pode afetar significativamente a trajetória da legislação em matéria de IA. Ferramentas adversárias, como Glaze e erva-moura– ambos desenvolvidos na Universidade de Chicago – surgiram no que pode se tornar uma espécie de corrida armamentista entre criadores e desenvolvedores de modelos.

 Saiba como o IBM® watsonx.governance™ acelera fluxos de trabalho de IA responsáveis, transparentes e explicáveis ​​→

Shadow AI (e políticas corporativas de IA)

Para as empresas, este potencial crescente de consequências legais, regulamentares, económicas ou de reputação é agravado pela forma como as ferramentas de IA generativa se tornaram populares e acessíveis. As organizações não devem apenas ter uma política corporativa cuidadosa, coerente e claramente articulada em torno da IA ​​generativa, mas também ter cuidado com sombra AI: o uso pessoal “não oficial” de IA no local de trabalho pelos funcionários.

Também chamada de “TI sombra” ou “BYOAI”, a IA sombra surge quando funcionários impacientes que buscam soluções rápidas (ou simplesmente desejam explorar novas tecnologias mais rápido do que uma política cautelosa da empresa permite) implementam IA generativa no local de trabalho sem passar pela TI para aprovação ou supervisão . Muitos serviços voltados para o consumidor, alguns gratuitos, permitem que até mesmo indivíduos não técnicos improvisem o uso de ferramentas generativas de IA. Num estudo da Ernst & Young, 90% dos entrevistados disseram usar IA no trabalho.[Vii]

Esse espírito empreendedor pode ser ótimo, no vácuo, mas os funcionários ansiosos podem não ter informações ou perspectivas relevantes em relação à segurança, privacidade ou conformidade. Isso pode expor as empresas a muitos riscos. Por exemplo, um funcionário pode, sem saber, fornecer segredos comerciais a um modelo de IA voltado ao público que treina continuamente com base nas informações do usuário, ou usar material protegido por direitos autorais para treinar um modelo proprietário para geração de conteúdo e expor sua empresa a ações legais.

Tal como muitos desenvolvimentos em curso, isto sublinha como os perigos da IA ​​generativa aumentam quase linearmente com as suas capacidades. Com grandes poderes vem grandes responsabilidades.

Avançando

À medida que avançamos num ano crucial para a inteligência artificial, compreender e adaptar-se às tendências emergentes é essencial para maximizar o potencial, minimizar os riscos e dimensionar de forma responsável a adoção da IA ​​generativa.

Coloque a IA generativa para trabalhar com watsonx™ →

Saiba como a IBM pode capacitá-lo a ficar à frente das tendências de IA →


[I] “Gartner coloca IA generativa no pico das expectativas inflacionadas no ciclo de hype de 2023 para tecnologias emergentes,” Gartner, 16 de agosto de 2023

[Ii] ”Relatório sobre o estado da IA ​​generativa da Deloitte no primeiro trimestre da Enterprise,” Deloitte, janeiro de 2024

[III] ”O que esperar da IA ​​em 2024,” Universidade de Stanford, 8 de dezembro de 2023

[IV] ”Perguntas e respostas: pesquisador da UW discute quanta energia o ChatGPT usa,” Universidade de Washington, 27 de julho de 2023

[V] “IA generativa na empresa,” O'Reilly, 28 de novembro de 2023

[Vi] “Deepfaking: as eleições americanas de 2024 coincidem com o boom da IA,” Reuters, 30 de maio de 2023

[Vii] “Como as organizações podem impedir que o uso vertiginoso de IA alimente a ansiedade” Ernest & Young, dezembro de 2023

Esse artigo foi útil?

SimNão


Mais de Inteligência Artificial




Criando experiências excepcionais para os funcionários

4 min ler - À medida que a linha entre a vida pessoal e profissional dos funcionários se torna mais tênue do que nunca, os funcionários esperam um local de trabalho mais flexível e empático que leve em conta a sua personalidade plena. Esta mudança nas expectativas dos colaboradores está a acontecer num ambiente desafiante de rápidos avanços tecnológicos, crescentes lacunas de competências e questões socioeconómicas imprevisíveis. E ainda por cima, a própria natureza do RH resiste à otimização, uma vez que as experiências dos funcionários são difíceis de quantificar e as organizações são difíceis de mudar. Apesar desses desafios,…




6 maneiras pelas quais a IA generativa pode otimizar o gerenciamento de ativos

3 min ler - Todo gestor de ativos, independentemente do tamanho da organização, enfrenta tarefas semelhantes: simplificar o planejamento de manutenção, aumentar a confiabilidade de ativos ou equipamentos e otimizar fluxos de trabalho para melhorar a qualidade e a produtividade. Num estudo recente do IBM Institute for Business Value sobre diretores da cadeia de fornecimento, quase metade dos entrevistados afirmaram que adotaram novas tecnologias em resposta aos desafios. Há ainda mais ajuda no horizonte com o poder dos modelos básicos de inteligência artificial (IA) generativa, combinados com a IA tradicional, para…




Como a Recording Academy usa o IBM watsonx para aprimorar a experiência dos fãs no GRAMMYs®

3 min ler - Através dos GRAMMYs®, a Recording Academy® procura reconhecer a excelência nas artes e ciências da gravação e garantir que a música continue a ser uma parte indelével da nossa cultura. Quando as maiores estrelas musicais do mundo cruzarem o tapete vermelho na 66ª edição do GRAMMY Awards, a IBM estará lá mais uma vez. Este ano, o desafio empresarial enfrentado pelos GRAMMYs foi paralelo ao de outros eventos culturais icônicos, esportivos e de entretenimento: no cenário atual altamente fragmentado da mídia, criar impacto cultural significa gerar conteúdo cativante…




O AI Assistant para todos: watsonx Orchestrate combina IA generativa e automação para aumentar a produtividade

3 min ler - E se os funcionários tivessem a capacidade de delegar facilmente tarefas demoradas, acessar informações facilmente por meio de consultas simples e lidar com projetos complexos em um aplicativo único e simplificado? E se os clientes tivessem acesso a um agente virtual inteligente e amigável para fornecer respostas e permitir experiências de autoatendimento 24 horas por dia? Esta revolução tecnológica é agora possível, graças às capacidades inovadoras da automação generativa alimentada por IA. Com os avanços atuais na tecnologia AI Assistant, as empresas podem alcançar resultados de negócios em uma velocidade sem precedentes, transformando…

Boletins informativos da IBM

Receba nossos boletins informativos e atualizações de tópicos que oferecem as mais recentes lideranças inovadoras e insights sobre tendências emergentes.

Inscreva-se agora

Mais boletins informativos

local_img

Inteligência mais recente

local_img