Junte -se ao evento confiável pelos líderes corporativos por quase duas décadas. A VB Transform reúne as pessoas que construíram a estratégia de IA da empresa real. Saber mais
O advento da pesquisa de idiomas natural incentivou as pessoas a mudar a maneira como pesquisam informações, e o LinkedIn, que trabalha com vários modelos de IA no ano passado, espera que essa mudança se estenda à busca de empregos.
A Pesquisa de Jobs movidos a IA do LinkedIn, agora disponível para todos os usuários do LinkedIn, usa modelos destilados e ajustados treinados na base de conhecimento da plataforma de mídia social profissional para restringir potenciais oportunidades de emprego com base na linguagem natural.
“Essa nova experiência de pesquisa permite que os membros descrevam seus objetivos em suas próprias palavras e obtenham resultados que realmente refletem o que estão procurando”, disse Erran Berger, vice -presidente de desenvolvimento de produtos do LinkedIn, ao VentureBeat em um email. “Este é o primeiro passo em uma jornada maior para tornar o emprego mais intuitivo, inclusivo e empoderador para todos.”
O LinkedIn declarou anteriormente em uma postagem no blog que um problema significativo enfrentou que os usuários de busca de empregos na plataforma era uma dependência excessiva de consultas de palavras-chave precisas. Muitas vezes, os usuários digitam um cargo mais genérico e obtiam posições que não correspondem exatamente. Por experiência pessoal, se eu digitar “repórter” no LinkedIn, recebo resultados de pesquisa para empregos de repórter nas publicações da mídia, juntamente com as aberturas de repórter do tribunal, que são um conjunto de habilidades totalmente diferente.
O vice -presidente de engenharia do LinkedIn, Wenjing Zhang, disse a VentureBeat em uma entrevista separada que eles viram a necessidade de melhorar a maneira como as pessoas poderiam encontrar empregos que os encaixam perfeitamente, e que começou com uma melhor compreensão do que está procurando.
“Então, no passado, quando estamos usando palavras -chave, estamos basicamente olhando para uma palavra -chave e tentando encontrar a correspondência exata. E às vezes na descrição do trabalho, a descrição do trabalho pode dizer repórter, mas eles não são realmente um repórter; ainda recuperamos essas informações, o que não é ideal para o candidato”, disse Zhang.
O LinkedIn melhorou sua compreensão das consultas do usuário e agora permite que as pessoas usem mais do que apenas palavras -chave. Em vez de procurar “Engenheiro de Software”, eles podem perguntar: “Encontre trabalhos de engenharia de software no Vale do Silício que foram publicados recentemente”.
Como eles construíram
Uma das primeiras coisas que o LinkedIn teve que fazer foi revisar a capacidade de sua função de pesquisa de entender.
“A primeira etapa é quando você está digitando uma consulta, precisamos ser capazes de entender a consulta, então o próximo passo é que você precisa recuperar o tipo certo de informação da nossa biblioteca de empregos. E então o último passo é agora que você tem algumas centenas de candidatos finais, como você faz o ranking para que o trabalho mais relevante apareça no topo”, disse Zhang.
O LinkedIn contou com métodos fixos baseados em taxonomia, modelos de classificação e LLMs mais antigos, que eles disseram “não tinham capacidade para um profundo entendimento semântico”. A empresa então se voltou para os modelos de idiomas de grandes grandes e já ajustados (LLMS) para ajudar a aprimorar os recursos de processamento de linguagem natural (PNL) de sua plataforma.
Mas o LLMS também vem com custos de computação caros. Portanto, o LinkedIn se voltou para os métodos de destilação para reduzir o custo do uso de GPUs caras. Eles dividiram o LLM em duas etapas: uma para trabalhar em dados e recuperação de informações e a outra para classificar os resultados. Usando um modelo de professor para classificar a consulta e o trabalho, o LinkedIn disse que foi capaz de alinhar os modelos de recuperação e classificação.
O método também permitiu que os engenheiros do LinkedIn reduzissem os estágios que seu sistema de busca de empregos foi usado. A certa altura, “havia nove estágios diferentes que compunham o oleoduto para pesquisar e combinar um emprego”, que eram frequentemente duplicados.
“Para fazer isso, usamos uma técnica comum de otimização multi-objetiva. Para garantir que a recuperação e o ranking estejam alinhadas, é importante que a recuperação classifique os documentos usando o mesmo moo que o estágio de classificação usa. O objetivo é manter a recuperação simples, mas sem introduzir o ônus desnecessário sobre a produtividade do desenvolvedor de IA”, disse o LinkEdin.
O LinkedIn também desenvolveu um mecanismo de consulta que gera sugestões personalizadas para os usuários.
Uma pesquisa mais baseada em IA
O LinkedIn não está sozinho ao ver o potencial da pesquisa corporativa baseada em LLM. O Google afirma que 2025 será o ano em que a pesquisa corporativa se tornar mais poderosa, graças a modelos avançados.
Modelos como o Rerank 3.5 da Cohere ajudam a quebrar silos de linguagem nas empresas. Os vários produtos de “pesquisa profunda” do OpenAI, Google e Antrópica indicam uma crescente demanda organizacional por agentes que acessam e analisam fontes de dados internas.
O LinkedIn lançou vários recursos baseados em IA no ano passado. Em outubro, lançou um assistente de IA para ajudar os recrutadores a encontrar os melhores candidatos.
O diretor da IA do LinkedIn, Deepak Agarwaldurante a transformação VB em San Francisco este mês. Registre -se agora para participar.
Insights diários sobre casos de uso de negócios com VB diariamente
Se você deseja impressionar seu chefe, o VB Daily o cobriu. Damos a você uma informação interna sobre o que as empresas estão fazendo com a IA generativa, desde mudanças regulatórias a implantações práticas, para que você possa compartilhar informações para o ROI máximo.
Leia nossa Política de Privacidade
Obrigado por assinar. Confira mais boletins de VB aqui.
Ocorreu um erro.
Fonte ==> Cyberseo