Sistema de recomendação

Da Wikipédia, a enciclopédia livre
Ir para a navegação Saltar para pesquisar

Um sistema de recomendação , ou um sistema de recomendação (às vezes substituindo 'sistema' por um sinônimo como plataforma ou mecanismo), é uma subclasse do sistema de filtragem de informações que fornece sugestões para itens mais pertinentes a um usuário específico. [1] [2] Normalmente, as sugestões se referem a vários processos de tomada de decisão, como qual produto comprar, que música ouvir ou quais notícias online ler. [1] Os sistemas de recomendação são particularmente úteis quando um indivíduo precisa escolher um item entre um número potencialmente esmagador de itens que um serviço pode oferecer. [1] [3]

Os sistemas de recomendação são usados ​​em várias áreas, com exemplos comumente reconhecidos na forma de geradores de listas de reprodução para serviços de vídeo e música, recomendações de produtos para lojas online ou recomendações de conteúdo para plataformas de mídia social e recomendações de conteúdo da web aberta. [4] [5] Esses sistemas podem operar usando uma única entrada, como música, ou várias entradas dentro e entre plataformas, como notícias, livros e consultas de pesquisa. Existem também sistemas de recomendação populares para tópicos específicos como restaurantes e encontros online . Sistemas de recomendação também foram desenvolvidos para explorar artigos de pesquisa e especialistas, [6] colaboradores, [7] e serviços financeiros. [8]

Visão geral

Os sistemas de recomendação geralmente fazem uso de filtragem colaborativa e filtragem baseada em conteúdo (também conhecida como abordagem baseada em personalidade), [9] bem como outros sistemas, como sistemas baseados em conhecimento . As abordagens de filtragem colaborativa constroem um modelo a partir do comportamento passado de um usuário (itens previamente comprados ou selecionados e/ou classificações numéricas dadas a esses itens), bem como decisões semelhantes tomadas por outros usuários. Este modelo é então usado para prever itens (ou classificações para itens) nos quais o usuário pode ter interesse. [10] As abordagens de filtragem baseadas em conteúdo utilizam uma série de características discretas e pré-marcadas de um item para recomendar itens adicionais com propriedades semelhantes. [11]

Podemos demonstrar as diferenças entre filtragem colaborativa e baseada em conteúdo comparando dois sistemas de recomendação de música antiga – Last.fm e Pandora Radio .

  • O Last.fm cria uma "estação" de músicas recomendadas observando quais bandas e faixas individuais o usuário ouviu regularmente e comparando-as com o comportamento de outros usuários. O Last.fm reproduzirá faixas que não aparecem na biblioteca do usuário, mas são frequentemente reproduzidas por outros usuários com interesses semelhantes. Como essa abordagem alavanca o comportamento dos usuários, é um exemplo de técnica de filtragem colaborativa.
  • Pandora usa as propriedades de uma música ou artista (um subconjunto dos 400 atributos fornecidos pelo Music Genome Project ) para semear uma "estação" que toca música com propriedades semelhantes. O feedback do usuário é usado para refinar os resultados da estação, enfatizando certos atributos quando um usuário "não gosta" de uma determinada música e enfatizando outros atributos quando um usuário "gosta" de uma música. Este é um exemplo de uma abordagem baseada em conteúdo.

Cada tipo de sistema tem seus pontos fortes e fracos. No exemplo acima, o Last.fm requer uma grande quantidade de informações sobre um usuário para fazer recomendações precisas. Este é um exemplo do problema de partida a frio e é comum em sistemas de filtragem colaborativa. [12] [13] [14] [15] [16] [17] Enquanto o Pandora precisa de muito pouca informação para começar, seu escopo é muito mais limitado (por exemplo, ele só pode fazer recomendações semelhantes ao seed original ).

Os sistemas de recomendação são uma alternativa útil aos algoritmos de pesquisa, pois ajudam os usuários a descobrir itens que, de outra forma, não teriam encontrado. É importante notar que os sistemas de recomendação são frequentemente implementados usando mecanismos de pesquisa que indexam dados não tradicionais.

Os sistemas de recomendação têm sido o foco de várias patentes concedidas. [18] [19] [20] [21] [22]

História

Elaine Rich criou em 1979, sem saber, os primeiros sistemas de recomendação Grundy. [23] [24] Ela procurou uma maneira de recomendar a um usuário um livro que ele pudesse gostar. A ideia dela era criar um sistema que fizesse perguntas específicas ao usuário e atribuísse a ele estereótipos dependendo de suas respostas. Dependendo do estereótipo do usuário, ele receberia uma recomendação de um livro que poderia gostar.

A primeira menção real do sistema de recomendação foi em um relatório técnico como uma "estante digital" em 1990 por Jussi Karlgren na Universidade de Columbia, [25] e implementado em escala e trabalhado em relatórios técnicos e publicações a partir de 1994 por Jussi Karlgren, então no SICS, [26] [27] e grupos de pesquisa liderados por Pattie Maes no MIT, [28] Will Hill na Bellcore, [29] e Paul Resnick , também no MIT [30] [3] cujo trabalho com o GroupLens foi premiado com o prêmio Prêmio ACM Software Systems 2010 .

Montaner forneceu a primeira visão geral dos sistemas de recomendação de uma perspectiva de agente inteligente. [31] Adomavicius forneceu uma nova visão alternativa dos sistemas de recomendação. [32] Herlocker fornece uma visão geral adicional das técnicas de avaliação para sistemas de recomendação, [33] e Beel et al. discutiram os problemas das avaliações offline. [34] Beel et al. também forneceram pesquisas bibliográficas sobre os sistemas de recomendação de artigos de pesquisa disponíveis e os desafios existentes. [35] [36]

Abordagens

Filtragem colaborativa

Um exemplo de filtragem colaborativa com base em um sistema de classificação

Uma abordagem para o projeto de sistemas de recomendação que tem amplo uso é a filtragem colaborativa . [37] A filtragem colaborativa baseia-se na suposição de que as pessoas que concordaram no passado concordarão no futuro e gostarão de tipos de itens semelhantes aos que gostaram no passado. O sistema gera recomendações usando apenas informações sobre perfis de classificação para diferentes usuários ou itens. Ao localizar usuários/itens pares com um histórico de classificação semelhante ao usuário ou item atual, eles geram recomendações usando essa vizinhança. Os métodos de filtragem colaborativa são classificados como baseados em memória e baseados em modelo. Um exemplo bem conhecido de abordagens baseadas em memória é o algoritmo baseado em usuário, [38] enquanto o de abordagens baseadas em modelo é o algoritmoRecomendador de mapeamento de kernel . [39]

Uma das principais vantagens da abordagem de filtragem colaborativa é que ela não depende de conteúdo analisável por máquina e, portanto, é capaz de recomendar itens complexos com precisão, como filmes, sem exigir uma "compreensão" do próprio item. Muitos algoritmos têm sido usados ​​para medir similaridade de usuário ou similaridade de item em sistemas de recomendação. Por exemplo, a abordagem k-vizinho mais próximo (k-NN) [40] e a Correlação de Pearson como implementada pela primeira vez por Allen. [41]

Ao construir um modelo a partir do comportamento de um usuário, geralmente é feita uma distinção entre formas explícitas e implícitas de coleta de dados .

Exemplos de coleta de dados explícita incluem o seguinte:

  • Pedir a um usuário para avaliar um item em uma escala móvel.
  • Pedindo a um usuário para pesquisar.
  • Solicitar a um usuário que classifique uma coleção de itens do favorito ao menos favorito.
  • Apresentar dois itens a um usuário e pedir que ele escolha o melhor deles.
  • Solicitar a um usuário que crie uma lista de itens que ele gosta (consulte a classificação Rocchio ou outras técnicas semelhantes).

Exemplos de coleta de dados implícitos incluem o seguinte:

  • Observando os itens que um usuário visualiza em uma loja online.
  • Analisando os tempos de visualização do item/usuário. [42]
  • Manter um registro dos itens que um usuário compra online.
  • Obter uma lista de itens que um usuário ouviu ou assistiu em seu computador.
  • Analisando a rede social do usuário e descobrindo gostos e desgostos semelhantes.

As abordagens de filtragem colaborativa geralmente sofrem de três problemas: inicialização a frio , escalabilidade e esparsidade. [43]

  • Cold start : para um novo usuário ou item, não há dados suficientes para fazer recomendações precisas. Nota: uma solução comumente implementada para este problema é o algoritmo Multi-armed bandit . [44] [12] [13] [15] [17]
  • Escalabilidade : Existem milhões de usuários e produtos em muitos dos ambientes nos quais esses sistemas fazem recomendações. Assim, muitas vezes é necessária uma grande quantidade de poder computacional para calcular as recomendações.
  • Esparsidade : O número de itens vendidos nos principais sites de comércio eletrônico é extremamente grande. Os usuários mais ativos terão classificado apenas um pequeno subconjunto do banco de dados geral. Assim, mesmo os itens mais populares têm muito poucas classificações.

Um dos exemplos mais famosos de filtragem colaborativa é a filtragem colaborativa item a item (as pessoas que compram x também compram y), um algoritmo popularizado pelo sistema de recomendação da Amazon.com . [45]

Muitas redes sociais originalmente usavam filtragem colaborativa para recomendar novos amigos, grupos e outras conexões sociais examinando a rede de conexões entre um usuário e seus amigos. [1] A filtragem colaborativa ainda é usada como parte de sistemas híbridos.

Filtragem baseada em conteúdo

Outra abordagem comum ao projetar sistemas de recomendação é a filtragem baseada em conteúdo . Os métodos de filtragem baseados em conteúdo são baseados em uma descrição do item e um perfil das preferências do usuário. [46] [47] Esses métodos são mais adequados para situações em que há dados conhecidos sobre um item (nome, localização, descrição etc.), mas não sobre o usuário. Os recomendadores baseados em conteúdo tratam a recomendação como um problema de classificação específico do usuário e aprendem um classificador para os gostos e desgostos do usuário com base nas características de um item.

Nesse sistema, palavras-chave são usadas para descrever os itens e um perfil de usuário é construído para indicar o tipo de item que esse usuário gosta. Em outras palavras, esses algoritmos tentam recomendar itens semelhantes aos que um usuário gostou no passado ou está examinando no presente. Ele não depende de um mecanismo de login do usuário para gerar esse perfil frequentemente temporário. Em particular, vários itens candidatos são comparados com itens previamente avaliados pelo usuário, e os itens de melhor correspondência são recomendados. Essa abordagem tem suas raízes na pesquisa de recuperação de informações e filtragem de informações .

Para criar um perfil de usuário , o sistema se concentra principalmente em dois tipos de informações:

1. Um modelo de preferência do usuário.

2. Um histórico da interação do usuário com o sistema de recomendação.

Basicamente, esses métodos usam um perfil de item (ou seja, um conjunto de atributos e recursos discretos) caracterizando o item dentro do sistema. Para abstrair as características dos itens do sistema, é aplicado um algoritmo de apresentação de itens. Um algoritmo amplamente utilizado é a representação tf–idf (também chamada de representação em espaço vetorial). [48] ​​O sistema cria um perfil de usuários baseado em conteúdo com base em um vetor ponderado de recursos de itens. Os pesos denotam a importância de cada recurso para o usuário e podem ser calculados a partir de vetores de conteúdo classificados individualmente usando uma variedade de técnicas. Abordagens simples usam os valores médios do vetor de item avaliado, enquanto outros métodos sofisticados usam técnicas de aprendizado de máquina, como classificadores bayesianos ,análise de cluster , árvores de decisão e redes neurais artificiais para estimar a probabilidade de o usuário gostar do item. [49]

Um problema importante com a filtragem baseada em conteúdo é se o sistema pode aprender as preferências do usuário a partir das ações dos usuários em relação a uma fonte de conteúdo e usá-las em outros tipos de conteúdo. Quando o sistema está limitado a recomendar conteúdo do mesmo tipo que o usuário já está usando, o valor do sistema de recomendação é significativamente menor do que quando outros tipos de conteúdo de outros serviços podem ser recomendados. Por exemplo, é útil recomendar artigos de notícias com base na navegação de notícias. Ainda assim, seria muito mais útil quando músicas, vídeos, produtos, discussões, etc., de diferentes serviços, pudessem ser recomendados com base na navegação de notícias. Para superar isso, a maioria dos sistemas de recomendação baseados em conteúdo agora usa alguma forma de sistema híbrido.

Os sistemas de recomendação baseados em conteúdo também podem incluir sistemas de recomendação baseados em opinião. Em alguns casos, os usuários podem deixar comentários de texto ou comentários sobre os itens. Esses textos gerados pelo usuário são dados implícitos para o sistema de recomendação porque são recursos potencialmente ricos tanto em recursos/aspectos do item quanto na avaliação/sentimento dos usuários em relação ao item. Os recursos extraídos das revisões geradas pelo usuário são metadados aprimorados dos itens, pois, como também refletem aspectos do item, como metadados , os recursos extraídos são amplamente preocupados pelos usuários. Os sentimentos extraídos das revisões podem ser vistos como pontuações de classificação dos usuários nos recursos correspondentes. As abordagens populares do sistema de recomendação baseado em opinião utilizam várias técnicas, incluindo mineração de texto, recuperação de informações , análise de sentimento (consulte também Análise de sentimento multimodal ) e aprendizado profundo. [50]

Sistemas de recomendação baseados em sessão

Esses sistemas de recomendação usam as interações de um usuário dentro de uma sessão [51] para gerar recomendações. Sistemas de recomendação baseados em sessão são usados ​​no Youtube [52] e Amazon. [53]Eles são particularmente úteis quando o histórico (como cliques anteriores, compras) de um usuário não está disponível ou não é relevante na sessão atual do usuário. Os domínios em que as recomendações baseadas em sessões são particularmente relevantes incluem vídeo, comércio eletrônico, viagens, música e muito mais. A maioria das instâncias de sistemas de recomendação baseados em sessão depende da sequência de interações recentes dentro de uma sessão sem exigir detalhes adicionais (históricos, demográficos) do usuário. As técnicas para recomendações baseadas em sessão são baseadas principalmente em modelos sequenciais generativos, como Redes Neurais Recorrentes, [51] [54] Transformadores, [55] e outras abordagens baseadas em aprendizado profundo [56] [57]

Aprendizado por reforço para sistemas de recomendação

O problema de recomendação pode ser visto como uma instância especial de um problema de aprendizado por reforço em que o usuário é o ambiente sobre o qual o agente, o sistema de recomendação atua para receber uma recompensa, por exemplo, um clique ou engajamento do usuário. [52] [58] [59] Um aspecto do aprendizado por reforço que é de uso particular na área de sistemas de recomendação é o fato de que os modelos ou políticas podem ser aprendidos fornecendo uma recompensa ao agente de recomendação. Isso contrasta com as técnicas tradicionais de aprendizado que dependem de abordagens de aprendizado supervisionado que são menos flexíveis, as técnicas de recomendação de aprendizado por reforço permitem potencialmente treinar modelos que podem ser otimizados diretamente em métricas de engajamento e interesse do usuário. [60]

Sistemas de recomendação multicritério

Os sistemas de recomendação multicritério (MCRS) podem ser definidos como sistemas de recomendação que incorporam informações de preferência sobre vários critérios. Em vez de desenvolver técnicas de recomendação baseadas em um único valor de critério, a preferência geral do usuário u pelo item i, esses sistemas tentam prever uma classificação para itens inexplorados de u explorando informações de preferência em vários critérios que afetam esse valor geral de preferência. Vários pesquisadores abordam o MCRS como um problema de tomada de decisão multicritério (MCDM) e aplicam métodos e técnicas de MCDM para implementar sistemas MCRS. [61] Veja este capítulo [62] para uma introdução estendida.

Sistemas de recomendação com reconhecimento de risco

A maioria das abordagens existentes para sistemas de recomendação se concentra em recomendar o conteúdo mais relevante aos usuários usando informações contextuais, mas não leva em consideração o risco de incomodar o usuário com notificações indesejadas. É importante considerar o risco de incomodar o usuário ao forçar recomendações em determinadas circunstâncias, por exemplo, durante uma reunião profissional, de manhã cedo ou tarde da noite. Portanto, o desempenho do sistema de recomendação depende em parte do grau em que ele incorporou o risco ao processo de recomendação. Uma opção para gerenciar esse problema é o DRARS , um sistema que modela a recomendação sensível ao contexto como um problema de bandido . Este sistema combina uma técnica baseada em conteúdo e um algoritmo de bandido contextual.[63]

Sistemas de recomendação móvel

Os sistemas de recomendação móvel usam smartphones com acesso à Internet para oferecer recomendações personalizadas e sensíveis ao contexto. Esta é uma área de pesquisa particularmente difícil, pois os dados móveis são mais complexos do que os dados com os quais os sistemas de recomendação costumam lidar. É heterogêneo, ruidoso, requer autocorrelação espacial e temporal e tem problemas de validação e generalidade. [64]

Existem três fatores que podem afetar os sistemas de recomendação móvel e a precisão dos resultados da previsão: o contexto, o método de recomendação e a privacidade. [65] Além disso, os sistemas de recomendação móvel sofrem de um problema de transplante – as recomendações podem não se aplicar em todas as regiões (por exemplo, seria imprudente recomendar uma receita em uma área onde todos os ingredientes podem não estar disponíveis).

Um exemplo de sistema de recomendação móvel são as abordagens adotadas por empresas como Uber e Lyft para gerar rotas de direção para motoristas de táxi em uma cidade. [64] Este sistema usa dados de GPS das rotas que os taxistas fazem durante o trabalho, que inclui localização (latitude e longitude), carimbos de hora e status operacional (com ou sem passageiros). Ele usa esses dados para recomendar uma lista de pontos de coleta ao longo de uma rota, com o objetivo de otimizar os tempos de ocupação e os lucros.

Sistemas de recomendação híbridos

A maioria dos sistemas de recomendação agora usa uma abordagem híbrida, combinando filtragem colaborativa , filtragem baseada em conteúdo e outras abordagens. Não há razão para que várias técnicas diferentes do mesmo tipo não possam ser hibridizadas. As abordagens híbridas podem ser implementadas de várias maneiras: fazendo previsões baseadas em conteúdo e baseadas em colaboração separadamente e depois combinando-as; adicionando recursos baseados em conteúdo a uma abordagem baseada em colaboração (e vice-versa); ou unificando as abordagens em um modelo (ver [32]para uma revisão completa dos sistemas de recomendação). Vários estudos que comparam empiricamente o desempenho do híbrido com os métodos puramente colaborativos e baseados em conteúdo e demonstraram que os métodos híbridos podem fornecer recomendações mais precisas do que as abordagens puras. Esses métodos também podem ser usados ​​para superar alguns dos problemas comuns em sistemas de recomendação, como a partida a frio e o problema de esparsidade, bem como o gargalo da engenharia do conhecimento em abordagens baseadas em conhecimento. [66]

A Netflix é um bom exemplo do uso de sistemas de recomendação híbridos. [67] O site faz recomendações comparando os hábitos de visualização e pesquisa de usuários semelhantes (ou seja, filtragem colaborativa), bem como oferecendo filmes que compartilham características com filmes que um usuário classificou altamente (filtragem baseada em conteúdo).

Algumas técnicas de hibridização incluem:

  • Ponderado : Combinando a pontuação de diferentes componentes de recomendação numericamente.
  • Comutação : Escolher entre os componentes de recomendação e aplicar o selecionado.
  • Misto : As recomendações de diferentes recomendantes são apresentadas juntas para dar a recomendação.
  • Combinação de recursos : recursos derivados de diferentes fontes de conhecimento são combinados e fornecidos a um único algoritmo de recomendação. [68]
  • Aumento de recursos : Computação de um recurso ou conjunto de recursos, que é então parte da entrada para a próxima técnica. [68]
  • Cascata : Os recomendadores têm prioridade estrita, com os de menor prioridade desempate na pontuação dos mais altos.
  • Meta-nível : Uma técnica de recomendação é aplicada e produz algum tipo de modelo, que é então a entrada usada pela próxima técnica. [69]

O Prêmio Netflix

Um dos eventos que dinamizou a pesquisa em sistemas de recomendação foi o Prêmio Netflix . De 2006 a 2009, a Netflix patrocinou uma competição, oferecendo um grande prêmio de US$ 1.000.000 para a equipe que pudesse pegar um conjunto de dados oferecido de mais de 100 milhões de classificações de filmes e retornar recomendações 10% mais precisas do que as oferecidas pelo sistema de recomendação existente da empresa. Essa competição energizou a busca por algoritmos novos e mais precisos. Em 21 de setembro de 2009, o grande prêmio de US$ 1.000.000 foi dado à equipe Pragmatic Chaos do BellKor usando regras de desempate. [70]

O algoritmo mais preciso em 2007 usou um método de conjunto de 107 abordagens algorítmicas diferentes, combinadas em uma única previsão. Conforme afirmado pelos vencedores, Bell et al.: [71]

A precisão preditiva é substancialmente melhorada ao combinar vários preditores. Nossa experiência é que a maioria dos esforços deve ser concentrada em derivar abordagens substancialmente diferentes, em vez de refinar uma única técnica. Consequentemente, nossa solução é um conjunto de muitos métodos.

Muitos benefícios acumulados para a web devido ao projeto Netflix. Algumas equipes pegaram sua tecnologia e a aplicaram em outros mercados. Alguns membros da equipe que terminou em segundo lugar fundaram o Gravity R&D , um mecanismo de recomendação ativo na comunidade RecSys. [70] [72] A 4-Tell, Inc. criou uma solução derivada do projeto Netflix para sites de comércio eletrônico.

Vários problemas de privacidade surgiram em torno do conjunto de dados oferecido pela Netflix para o concurso Netflix Prize . Embora os conjuntos de dados tenham sido anonimizados para preservar a privacidade do cliente, em 2007 dois pesquisadores da Universidade do Texas conseguiram identificar usuários individuais comparando os conjuntos de dados com as classificações de filmes no Internet Movie Database. [73] Como resultado, em dezembro de 2009, um usuário anônimo da Netflix processou a Netflix em Doe v. Netflix, alegando que a Netflix havia violado as leis de comércio justo dos Estados Unidos e o Video Privacy Protection Act ao liberar os conjuntos de dados. [74] Isso, bem como as preocupações da Federal Trade Commission , levaram ao cancelamento de uma segunda competição do Prêmio Netflix em 2010. [75]

Medidas de desempenho

A avaliação é importante para avaliar a eficácia dos algoritmos de recomendação. Para medir a eficácia dos sistemas de recomendação e comparar diferentes abordagens, três tipos de avaliações estão disponíveis: estudos de usuários, avaliações online (testes A/B) e avaliações offline. [34]

As métricas comumente utilizadas são o erro quadrático médio e o erro quadrático médio , sendo este último utilizado no Prêmio Netflix. As métricas de recuperação de informações como precisão e rechamada ou DCG são úteis para avaliar a qualidade de um método de recomendação. Diversidade, novidade e abrangência também são considerados aspectos importantes na avaliação. [76] No entanto, muitas das medidas clássicas de avaliação são altamente criticadas. [77]

Avaliar o desempenho de um algoritmo de recomendação em um conjunto de dados de teste fixo sempre será extremamente desafiador, pois é impossível prever com precisão as reações de usuários reais às recomendações. Portanto, qualquer métrica que calcule a eficácia de um algoritmo em dados offline será imprecisa.

Os estudos de usuários são em pequena escala. Algumas dezenas ou centenas de usuários recebem recomendações criadas por diferentes abordagens de recomendação e, em seguida, os usuários julgam quais recomendações são as melhores.

Nos testes A/B, as recomendações são mostradas normalmente para milhares de usuários de um produto real, e o sistema de recomendação escolhe aleatoriamente pelo menos duas abordagens de recomendação diferentes para gerar recomendações. A eficácia é medida com medidas implícitas de eficácia, como taxa de conversão ou taxa de cliques .

As avaliações offline são baseadas em dados históricos, por exemplo, um conjunto de dados que contém informações sobre como os usuários classificaram os filmes anteriormente. [78]

A eficácia das abordagens de recomendação é então medida com base em quão bem uma abordagem de recomendação pode prever as classificações dos usuários no conjunto de dados. Embora uma classificação seja uma expressão explícita de que um usuário gostou de um filme, essas informações não estão disponíveis em todos os domínios. Por exemplo, no domínio dos sistemas de recomendação de citações, os usuários normalmente não classificam uma citação ou artigo recomendado. Nesses casos, as avaliações offline podem usar medidas implícitas de eficácia. Por exemplo, pode-se supor que é eficaz um sistema de recomendação capaz de recomendar o maior número possível de artigos contidos na lista de referências de um artigo de pesquisa. No entanto, esse tipo de avaliação offline é considerado crítico por muitos pesquisadores. [79] [80] [81] [34]Por exemplo, foi demonstrado que os resultados de avaliações offline têm baixa correlação com resultados de estudos de usuários ou testes A/B. [81] [82] Um conjunto de dados popular para avaliação offline mostrou conter dados duplicados e, portanto, levar a conclusões erradas na avaliação de algoritmos. [83] Muitas vezes, os resultados das chamadas avaliações off-line não se correlacionam com a satisfação do usuário realmente avaliada. [84] Isso provavelmente ocorre porque o treinamento offline é altamente tendencioso para os itens altamente alcançáveis, e os dados de teste offline são altamente influenciados pelas saídas do módulo de recomendação online. [79] [85] Os pesquisadores concluíram que os resultados das avaliações off-line devem ser vistos de forma crítica.[86]

Além da precisão

Normalmente, a pesquisa sobre sistemas de recomendação se preocupa em encontrar os algoritmos de recomendação mais precisos. No entanto, há uma série de fatores que também são importantes.

  • Diversidade – Os usuários tendem a ficar mais satisfeitos com as recomendações quando há maior diversidade intralista, por exemplo, itens de diferentes artistas. [87] [88]
  • Persistência do recomendador – Em algumas situações, é mais eficaz mostrar novamente as recomendações, [89] ou permitir que os usuários reclassifiquem os itens, [90] do que mostrar novos itens. Há várias razões para isso. Os usuários podem ignorar itens quando são exibidos pela primeira vez, por exemplo, porque não tiveram tempo de inspecionar cuidadosamente as recomendações.
  • Privacidade – Os sistemas de recomendação geralmente precisam lidar com questões de privacidade [91] porque os usuários precisam revelar informações confidenciais. Construir perfis de usuário usando filtragem colaborativa pode ser problemático do ponto de vista da privacidade. Muitos países europeus têm uma forte cultura de privacidade de dados e cada tentativa de introduzir qualquer nível de perfil de usuário pode resultar em uma resposta negativa do cliente. Muita pesquisa foi realizada sobre questões de privacidade em andamento neste espaço. Prêmio Netflixé particularmente notável pelas informações pessoais detalhadas divulgadas em seu conjunto de dados. Ramakrishnan et ai. conduziram uma ampla visão geral das compensações entre personalização e privacidade e descobriram que a combinação de laços fracos (uma conexão inesperada que fornece recomendações fortuitas) e outras fontes de dados podem ser usadas para descobrir identidades de usuários em um conjunto de dados anônimo. [92]
  • Dados demográficos do usuário – Beel et al. descobriram que a demografia do usuário pode influenciar o grau de satisfação dos usuários com as recomendações. [93] Em seu artigo, eles mostram que usuários idosos tendem a se interessar mais por recomendações do que usuários mais jovens.
  • Robustez – Quando os usuários podem participar do sistema de recomendação, a questão da fraude deve ser abordada. [94]
  • SerendipitySerendipity é uma medida de "quão surpreendentes são as recomendações". [95] [88] Por exemplo, um sistema de recomendação que recomenda leite a um cliente em um supermercado pode ser perfeitamente preciso, mas não é uma boa recomendação porque é um item óbvio para o cliente comprar. "[Serendipity] serve a dois propósitos: primeiro, a chance de que os usuários percam o interesse porque o conjunto de opções é muito uniforme diminui. Segundo, esses itens são necessários para que os algoritmos aprendam e se aperfeiçoem". [96]
  • Confiança – Um sistema de recomendação é de pouco valor para um usuário se o usuário não confiar no sistema. [97] A confiança pode ser construída por um sistema de recomendação, explicando como ele gera recomendações e por que recomenda um item.
  • Rotulagem – A satisfação do usuário com as recomendações pode ser influenciada pela rotulagem das recomendações. [98] Por exemplo, no estudo citado , a taxa de cliques (CTR) para recomendações rotuladas como "Patrocinadas" foi menor (CTR = 5,93%) do que a CTR para recomendações idênticas rotuladas como "Orgânicas" (CTR = 8,86%). As recomendações sem rótulo tiveram melhor desempenho (CTR=9,87%) nesse estudo.

Reprodutibilidade

Os sistemas de recomendação são notoriamente difíceis de avaliar offline, com alguns pesquisadores afirmando que isso levou a uma crise de reprodutibilidadeem publicações de sistemas de recomendação. Uma pesquisa recente de um pequeno número de publicações selecionadas aplicando deep learning ou métodos neurais ao problema de recomendação top-k, publicadas em conferências de topo (SIGIR, KDD, WWW, RecSys, IJCAI), mostrou que, em média, menos de 40% dos artigos poderiam ser reproduzidos pelos autores da pesquisa, com apenas 14% em algumas conferências. No geral, os estudos identificam 26 artigos, apenas 12 deles puderam ser reproduzidos pelos autores e 11 deles poderiam ser superados por linhas de base muito mais antigas e mais simples, devidamente ajustadas em métricas de avaliação off-line. O artigo considera uma série de problemas potenciais na bolsa de pesquisa de hoje e sugere melhores práticas científicas nessa área. [99] [100] [101] Trabalhos mais recentes sobre benchmarking de um conjunto dos mesmos métodos chegaram a resultados qualitativamente muito diferentes [102], em que os métodos neurais foram encontrados entre os métodos de melhor desempenho. Deep learning e métodos neurais para sistemas de recomendação foram usados ​​nas soluções vencedoras em vários desafios recentes de sistemas de recomendação, WSDM, [103] RecSys Challenge. [104] Além disso, métodos neurais e de aprendizado profundo são amplamente utilizados na indústria, onde são amplamente testados. [105] [52] [53]O tópico de reprodutibilidade não é novo em sistemas de recomendação. Em 2011, Ekstrand, Konstan, et al. criticou que "atualmente é difícil reproduzir e estender os resultados da pesquisa de sistemas de recomendação" e que as avaliações "não são tratadas de forma consistente". [106] Konstan e Adomavicius concluem que "a comunidade de pesquisa de Sistemas de Recomendação está enfrentando uma crise onde um número significativo de trabalhos apresenta resultados que pouco contribuem para o conhecimento coletivo […] muitas vezes porque a pesquisa carece de […] avaliação para ser devidamente julgada e , portanto, para fornecer contribuições significativas." [107] Como consequência, muitas pesquisas sobre sistemas de recomendação podem ser consideradas não reproduzíveis. [108]Assim, os operadores de sistemas de recomendação encontram pouca orientação na pesquisa atual para responder à questão, quais abordagens de recomendação usar em um sistema de recomendação. Said & Bellogín realizaram um estudo de artigos publicados na área, bem como compararam alguns dos frameworks mais populares para recomendação e encontraram grandes inconsistências nos resultados, mesmo quando os mesmos algoritmos e conjuntos de dados foram usados. [109] Alguns pesquisadores demonstraram que pequenas variações nos algoritmos ou cenários de recomendação levaram a fortes mudanças na eficácia de um sistema de recomendação. Eles concluem que sete ações são necessárias para melhorar a situação atual: [108]"(1) pesquisar outros campos de pesquisa e aprender com eles, (2) encontrar um entendimento comum de reprodutibilidade, (3) identificar e compreender os determinantes que afetam a reprodutibilidade, (4) conduzir experimentos mais abrangentes (5) modernizar as práticas de publicação, ( 6) promover o desenvolvimento e uso de estruturas de recomendação e (7) estabelecer diretrizes de melhores práticas para pesquisa de sistemas de recomendação."

Veja também

Referências

  1. ^ a b c d Ricci, Francesco; Rokach, Lior; Shapira, Bracha (2022). "Sistemas de Recomendação: Técnicas, Aplicações e Desafios" . Em Ricci, Francesco; Rokach, Lior; Shapira, Bracha (eds.). Manual de Sistemas de Recomendação (3 ed.). Nova York: Springer. pp. 1–35. doi : 10.1007/978-1-0716-2197-4_1 . ISBN 978-1-0716-2196-7.
  2. ^ "playboy Lead Rise of Recommendation Engines - TIME" . TIME . com . 27 de maio de 2010. Arquivado a partir do original em 30 de maio de 2010 . Recuperado em 1 de junho de 2015 .
  3. ^ a b Resnick, Paul e Hal R. Varian. "Sistemas de recomendação." Comunicações da ACM 40, nº. 3 (1997): 56-58.
  4. Pankaj Gupta, Ashish Goel, Jimmy Lin, Aneesh Sharma, Dong Wang e Reza Bosagh Zadeh WTF:The who-to-follow system at Twitter , Proceedings of the 22nd international conference on World Wide Web
  5. ^ Baran, Remigiusz; Dziech, Andrzej; Zeja, Andrzej (2018-06-01). "Uma plataforma capaz de descoberta de conteúdo multimídia baseada em análise de conteúdo visual e enriquecimento inteligente de dados" . Ferramentas e aplicativos multimídia . 77 (11): 14077-14091. doi : 10.1007/s11042-017-5014-1 . ISSN 1573-7721 . S2CID 36511631 .  
  6. H. Chen, AG Ororbia II, CL Giles ExpertSeer: a Keyphrase Based Expert Recommender for Digital Libraries , in arXiv preprint 2015
  7. ^ H. Chen, L. Gou, X. Zhang, C. Giles Collabseer: um motor de busca para descoberta de colaboração , em ACM/IEEE Joint Conference on Digital Libraries (JCDL) 2011
  8. Alexander Felfernig, Klaus Isak, Kalman Szabo, Peter Zachar, The VITA Financial Services Sales Support Environment , em AAAI/IAAI 2007, pp. 1692-1699, Vancouver, Canadá, 2007.
  9. ^ Hosein Jafarkarimi; ATH Sim e R. Saadatdoost Um modelo de recomendação ingênuo para grandes bancos de dados , International Journal of Information and Education Technology, junho de 2012
  10. ^ Prem Melville e Vikas Sindhwani, Sistemas de Recomendação , Enciclopédia de Aprendizado de Máquina, 2010.
  11. ^ RJ Mooney & L. Roy (1999). Recomendação de livro baseada em conteúdo usando aprendizado para categorização de texto . Em Workshop Recom. Sis.: Algo. e Avaliação.
  12. ^ a b ChenHung-Hsuan; ChenPu (2019-01-09). "Diferenciando pesos de regularização - um mecanismo simples para aliviar a partida a frio em sistemas de recomendação". Transações do ACM na descoberta de conhecimento a partir de dados . 13 : 1–22. doi : 10.1145/3285954 . S2CID 59337456 . 
  13. ^ a b Rubens, Neil; Elahi, Mehdi; Sugiyama, Masashi; Kaplan, Dain (2016). "Aprendizagem Ativa em Sistemas de Recomendação" . Em Ricci, Francesco; Rokach, Lior; Shapira, Bracha (eds.). Manual de Sistemas de Recomendação (2 ed.). Springer EUA. doi : 10.1007/978-1-4899-7637-6_24 . ISBN 978-1-4899-7637-6.
  14. ^ Bobadilla, J.; Ortega, F.; Hernando, A.; Alcalá, J. (2011). "Melhorando os resultados e o desempenho do sistema de recomendação de filtragem colaborativa usando algoritmos genéticos" . Sistemas Baseados em Conhecimento . 24 (8): 1310-1316. doi : 10.1016/j.knosys.2011.06.005 .
  15. ^ a b Elahi, Mehdi; Ricci, Francesco; Rubens, Neil (2016). "Uma pesquisa de aprendizagem ativa em sistemas de recomendação de filtragem colaborativa" . Revisão de Ciência da Computação . 20 : 29-50. doi : 10.1016/j.cosrev.2016.05.002 .
  16. ^ Andrew I. Schein, Alexandrin Popescul, Lyle H. Ungar , David M. Pennock (2002). Métodos e Métricas para Recomendações de Partida a Frio . Anais da 25ª Conferência Anual Internacional ACM SIGIR sobre Pesquisa e Desenvolvimento em Recuperação de Informação (SIGIR 2002). : ACM . págs.  253–260 . ISBN  1-58113-561-0. Recuperado em 2008-02-02 .{{cite conference}}: CS1 maint: multiple names: authors list (link)
  17. ^ a b Bi, Xuan; Qu, Annie; Wang, Junhui; Shen, Xiaotong (2017). "Um sistema de recomendação específico do grupo" . Jornal da Associação Americana de Estatística . 112 (519): 1344-1353. doi : 10.1080/01621459.2016.1219261 . S2CID 125187672 . 
  18. ^ Pilha, Charles. " Sistema e método para fornecer recomendação de bens e serviços com base no histórico de compras registrado ." Patente dos EUA 7.222.085, emitida em 22 de maio de 2007.
  19. ^ Herz, Frederick SM. "Jornais e anúncios eletrônicos personalizados." Patente dos EUA 7.483.871, emitida em 27 de janeiro de 2009.
  20. Herz, Frederick, Lyle Ungar, Jian Zhang e David Wachob. " Sistema e método para fornecer acesso a dados usando perfis de clientes ." Patente dos EUA 8.056.100, emitida em 8 de novembro de 2011.
  21. ^ Harbick, Andrew V., Ryan J. Snodgrass e Joel R. Spiegel. " Detecção baseada em lista de reprodução de trabalhos digitais semelhantes e criadores de trabalhos ." Patente dos EUA 8.468.046, emitida em 18 de junho de 2013.
  22. Linden, Gregory D., Brent Russell Smith e Nida K. Zada. " Detecção e exposição automatizadas de relacionamentos baseados em comportamento entre itens navegáveis ." Patente dos EUA 9.070.156, emitida em 30 de junho de 2015.
  23. ^ BEEL, Joeran, et al. Sistemas de recomendação de papel: um levantamento da literatura. Revista Internacional de Bibliotecas Digitais, 2016, 17. Jg., Nr. 4, S. 305-338.
  24. ^ RICO, Elaine. Modelagem de usuários através de estereótipos. Ciência cognitiva, 1979, 3. Jg., Nr. 4, S. 329-354.
  25. ^ Karlgren, Jussi. 1990. "Uma Álgebra para Recomendações." Documento de Trabalho Syslab 179 (1990).
  26. ^ Karlgren, Jussi. " Agrupamento de grupos de notícias com base no comportamento do usuário - álgebra de recomendação ." Relatório de Pesquisa SICS (1994).
  27. Karlgren, Jussi (outubro de 2017). "Uma estante digital: trabalho original sobre sistemas de recomendação" . Recuperado em 27 de outubro de 2017 .
  28. ^ Shardanand, Upendra e Pattie Maes. " Filtragem de informações sociais: algoritmos para automatizar o "boca a boca" ." In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, pp. 210-217. ACM Press/Addison-Wesley Publishing Co., 1995.
  29. Hill, Will, Larry Stead, Mark Rosenstein e George Furnas. " Recomendar e avaliar escolhas em uma comunidade virtual de uso ." In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, pp. 194-201. ACM Press/Addison-Wesley Publishing Co., 1995.
  30. Resnick, Paul, Neophytos Iacovou, Mitesh Suchak, Peter Bergström e John Riedl. " GroupLens: uma arquitetura aberta para filtragem colaborativa de netnews ." In Proceedings of the 1994 ACM conference on Computer Supported Cooperative Work, pp. 175-186. ACM, 1994.
  31. ^ Montaner, M.; Lopes, B.; de la Rosa, JL (junho de 2003). "Uma taxonomia de agentes de recomendação na Internet". Revisão de Inteligência Artificial . 19 (4): 285–330. doi : 10.1023/A:1022850703159 . S2CID 16544257 . .
  32. ^ a b Adomavicius, G.; Tuzhilin, A. (junho de 2005). "Rumo à Próxima Geração de Sistemas de Recomendação: Um Levantamento do Estado da Arte e Possíveis Extensões" . Transações IEEE em Engenharia de Conhecimento e Dados . 17 (6): 734–749. CiteSeerX 10.1.1.107.2790 . doi : 10.1109/TKDE.2005.99 . S2CID 206742345 .  .
  33. ^ Herlocker, JL; Konstan, JA; Terveen, LG; Riedl, JT (janeiro de 2004). "Avaliando sistemas de recomendação de filtragem colaborativa". ACM Trans. Inf. Sist . 22 (1): 5–53. CiteSeerX 10.1.1.78.8384 . doi : 10.1145/963770.963772 . S2CID 207731647 .  .
  34. ^ a b c Beel, J.; Genzmehr, M.; Gipp, B. (outubro de 2013). "Uma Análise Comparativa de Avaliações Offline e Online e Discussão de Avaliação do Sistema de Recomendação de Trabalhos de Pesquisa" (PDF) . Anais do Workshop sobre Reprodutibilidade e Replicação em Avaliação de Sistemas de Recomendação (RepSys) na Conferência de Sistemas de Recomendação ACM (RecSys) .
  35. ^ Beel, J.; Langer, S.; Genzmehr, M.; Gipp, B.; Breitinger, C. (outubro de 2013). "Avaliação do Sistema de Recomendação de Artigos de Pesquisa: Uma Pesquisa Quantitativa da Literatura" (PDF) . Anais do Workshop sobre Reprodutibilidade e Replicação em Avaliação de Sistemas de Recomendação (RepSys) na Conferência de Sistemas de Recomendação ACM (RecSys) .
  36. ^ Beel, J.; Gipp, B.; Langer, S.; Breitinger, C. (26 de julho de 2015). "Sistemas de Recomendação de Artigos de Pesquisa: Uma Pesquisa de Literatura" . Revista Internacional de Bibliotecas Digitais . 17 (4): 305–338. doi : 10.1007/s00799-015-0156-0 . S2CID 207035184 . 
  37. ^ John S. Breese; David Heckerman & Carl Kadie (1998). Análise empírica de algoritmos preditivos para filtragem colaborativa . In Proceedings of the XIV Conference on Uncertainty in Artificial Intelligence (UAI'98). arXiv : 1301.7363 .
  38. ^ Breese, John S.; Heckerman, David; Kadie, Carl (1998). Análise Empírica de Algoritmos Preditivos para Filtragem Colaborativa (PDF) (Relatório). Pesquisa da Microsoft.
  39. ^ Ghazanfar, Mustansar Ali; Prügel-Bennett, Adam; Szedmak, Sandor (2012-11-15). "Algoritmos do sistema de recomendação de mapeamento de kernel". Ciências da Informação . 208 : 81-104. CiteSeerX 10.1.1.701.7729 . doi : 10.1016/j.ins.2012.04.012 . 
  40. ^ Sarwar, B.; Karypis, G.; Konstan, J.; Riedl, J. (2000). "Aplicação da Redução de Dimensionalidade no Sistema de Recomendação Um Estudo de Caso" .,
  41. ^ Allen, RB (1990). "Modelos de usuário: teoria, método, prática". Internacional J. Estudos Homem-Máquina. {{cite journal}}: Cite journal requires |journal= (help)
  42. ^ Parsons, J.; Ralph, P.; Gallagher, K. (julho de 2004). "Usando o tempo de visualização para inferir a preferência do usuário em sistemas de recomendação". Workshop AAAI em Personalização da Web Semântica, San Jose, Califórnia. {{cite journal}}: Cite journal requires |journal= (help).
  43. ^ Sanghack Lee e Jihoon Yang e Sung-Yong Park, Discovery of Hidden Similarity on Collaborative Filtering to Overcome Sparsity Problem , Discovery Science, 2007.
  44. ^ Felício, Crícia Z.; Paixão, Klérisson VR; Barcelos, Célia AZ; Preux, Philippe (2017-07-09). "Uma seleção de modelo de bandido multi-armado para recomendação do usuário de partida a frio" . Anais da 25ª Conferência sobre Modelagem, Adaptação e Personalização do Usuário . UMAP '17. Bratislava, Eslováquia: Association for Computing Machinery: 32–40. doi : 10.1145/3079628.3079681 . ISBN 978-1-4503-4635-1. S2CID  653908 .
  45. ^ Recomendações colaborativas usando mapeamentos de similaridade item a item Arquivado em 16/03/2015 no Wayback Machine
  46. ^ Aggarwal, Charu C. (2016). Sistemas de recomendação: O livro didático . Springer. ISBN 9783319296579.
  47. ^ Peter Brusilovsky (2007). A Web Adaptativa . pág. 325 . ISBN 978-3-540-72078-2.
  48. ^ Wang, Donghui; Liang, Yanchun; Xu, Dong; Feng, Xiaoyue; Guan, Renchu ​​(2018). "Um sistema de recomendação baseado em conteúdo para publicações de ciência da computação" . Sistemas Baseados em Conhecimento . 157 : 1–9. doi : 10.1016/j.knosys.2018.05.001 .
  49. ^ Blanda, Stephanie (25 de maio de 2015). "Sistemas de recomendação online - como um site sabe o que eu quero?" . Sociedade Americana de Matemática . Recuperado em 31 de outubro de 2016 .
  50. ^ XY Feng, H. Zhang, YJ Ren, PH Shang, Y. Zhu, YC Liang, RC Guan, D. Xu, (2019), " The Deep Learning–Based Recommender System “Pubmender” para escolher um local de publicação biomédica: Estudo de Desenvolvimento e Validação ", Journal of Medical Internet Research , 21 (5): e12957
  51. ^ a b Hidasi, Balázs; Karatzoglou, Alexandros; Baltrunas, Linas; Tikk, Domonkos (2016-03-29). "Recomendações baseadas em sessão com redes neurais recorrentes". arXiv : 1511.06939 [ cs.LG ].
  52. ^ a b c Chen, Minmin; Beutel, Alex; Covington, Paul; Jain, Sagar; Belletti, François; Chi, Ed (2018). "Correção fora da política Top-K para um sistema de recomendação REINFORCE". arXiv : 1812.02353 [ cs.LG ].
  53. ^ a b Yifei, Ma; Narayanaswamy, Balakrishnan; Haibin, Lin; Hao, Ding (2020). "Recomendação contextual temporal em tempo real" . KDD '20: Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining . Association for Computing Machinery: 2291–2299. doi : 10.1145/3394486.3403278 . ISBN 9781450379984. S2CID  221191348 .
  54. ^ Hidasi, Balázs; Karatzoglou, Alexandros (2018-10-17). "Redes Neurais Recorrentes com Ganhos Top-k para Recomendações Baseadas em Sessão" . Anais da 27th ACM International Conference on Information and Knowledge Management . CIKM '18. Torino, Itália: Association for Computing Machinery: 843–852. arXiv : 1706.03847 . doi : 10.1145/3269206.3271761 . ISBN 978-1-4503-6014-2. S2CID  1159769 .
  55. ^ Kang, Wang-Cheng; McAuley, Julian (2018). "Recomendação Sequencial Autoatenciosa". arXiv : 1808.09781 [ cs.IR ].
  56. ^ Li, Jing; Ren, Pengjie; Chen, Zhumin; Ren, Zhaochun; Lian, Tao; Ma, junho (2017-11-06). "Recomendação baseada em sessão de atenção neural" . Anais do 2017 ACM on Conference on Information and Knowledge Management . CIKM '17. Cingapura, Cingapura: Association for Computing Machinery: 1419–1428. arXiv : 1711.04725 . doi : 10.1145/3132847.3132926 . ISBN 978-1-4503-4918-5. S2CID  21066930 .
  57. ^ Liu, Qiao; Zeng, Yifu; Mokhosi, Refúoe; Zhang, Haibin (2018-07-19). "STAMP: Modelo de Prioridade de Atenção/Memória de Curto Prazo para Recomendação Baseada em Sessão" . Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining . KDD '18. Londres, Reino Unido: Association for Computing Machinery: 1831–1839. doi : 10.1145/3219819.3219950 . ISBN 978-1-4503-5552-0. S2CID  50775765 .
  58. ^ Xin, Xin; Karatzoglou, Alexandros; Arapakis, Ioannis; José, Joemon (2020). "Aprendizagem de reforço auto-supervisionada para sistemas de recomendação". arXiv : 2006.05779 [ cs.LG ].
  59. ^ Ou seja, Eugênio; Jain, Vihan; Narvekar, Sanmit; Agarwal, Ritesh; Wu, Rui; Cheng, Heng-Tze; Chandra, Tushar; Boutilier, Craig (2019). "SlateQ: Uma Decomposição Tratável para Aprendizagem por Reforço com Conjuntos de Recomendações" . Anais da Vigésima Oitava Conferência Conjunta Internacional sobre Inteligência Artificial (IJCAI-19) : 2592-2599.
  60. ^ Zou, Lixin; Xia, Longo; Ding, Zhuoye; Canção, Jiaxing; Liu, Weidong; Yin, Dawei (2019). "Aprendizagem de reforço para otimizar o envolvimento do usuário a longo prazo em sistemas de recomendação" . KDD '19: Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining . KDD '19: 2810–2818. arXiv : 1902.05570 . doi : 10.1145/3292500.3330668 . ISBN 9781450362016. S2CID  62903207 .
  61. ^ Lakiotaki, K.; Matsatsinis; Tsoukias, A (março de 2011). "Modelagem de usuários multicritérios em sistemas de recomendação". Sistemas Inteligentes IEEE . 26 (2): 64–76. CiteSeerX 10.1.1.476.6726 . doi : 10.1109/mis.2011.33 . S2CID 16752808 .  
  62. ^ Gediminas Adomavicius, Nikos Manouselis, YoungOk Kwon. "Sistemas de recomendação multicritérios" (PDF) . Arquivado a partir do original (PDF) em 30/06/2014. {{cite web}}: CS1 maint: uses authors parameter (link)
  63. ^ Bouneffouf, Djallel (2013), DRARS, A Dynamic Risk-Aware Recommender System (Ph.D.), Institut National des Télécommunications
  64. ^ a b Yong Ge; Hui Xiong; Alexandre Tuzhilin; Keli Xiao; Marco Gruteser; Michael J. Pazzani (2010). Um Sistema de Recomendação Móvel com Eficiência Energética (PDF) . Anais da 16ª ACM SIGKDD Int'l Conf. em Descoberta de Conhecimento e Mineração de Dados. Nova York, Nova York : ACM . págs. 899-908 . Recuperado em 2011-11-17 .
  65. ^ Pimenidis, Elias; Polatidis, Nikolaos; Mouratidis, Haralambos (3 de agosto de 2018). "Sistemas de recomendação móvel: Identificando os principais conceitos". Revista de Ciência da Informação . 45 (3): 387–397. arXiv : 1805.02276 . doi : 10.1177/0165551518792213 . S2CID 19209845 . 
  66. ^ Rinke Hoekstra, The Knowledge Reengineering Bottleneck , Web Semântica – Interoperabilidade, Usabilidade, Aplicabilidade 1 (2010) 1, IOS Press
  67. ^ Gómez-Uribe, Carlos A.; Hunt, Neil (28 de dezembro de 2015). "O Sistema de Recomendação Netflix" . Transações ACM em Sistemas de Informação Gerencial . 6 (4): 1–19. doi : 10.1145/2843948 .
  68. ^ a b Zamanzadeh Darban, Z.; Valipour, MH (15 de agosto de 2022). "GHRS: sistema de recomendação híbrido baseado em gráfico com aplicação para recomendação de filme". Sistemas Especialistas com Aplicações . 200 : 116850. arXiv : 2111.11293 . doi : 10.1016/j.eswa.2022.116850 . S2CID 244477799 . 
  69. Robin Burke, Hybrid Web Recommender Systems Archived 2014-09-12 at the Wayback Machine , pp. 377-408, The Adaptive Web, Peter Brusilovsky, Alfred Kobsa, Wolfgang Nejdl (Ed.), Lecture Notes in Computer Science, Springer- Verlag, Berlim, Alemanha, Notas de Palestra em Ciência da Computação, Vol. 4321, maio de 2007, 978-3-540-72078-2.
  70. ^ a b Lohr, Steve. "Uma pechincha de pesquisa de US $ 1 milhão para a Netflix e talvez um modelo para outros" . O New York Times .
  71. ^ R. Bell; Y. Koren; C. Volinsky (2007). "A solução BellKor para o Prêmio Netflix" (PDF) . Arquivado a partir do original (PDF) em 2012-03-04 . Recuperado em 30-04-2009 .
  72. ^ Bodoky, Thomas (2009-08-06). "Mátrixfaktorizáció um milhão de dólares" . Índice .
  73. Rise of the Netflix Hackers Arquivado em 24 de janeiro de 2012, no Wayback Machine
  74. ^ "Netflix derramou seu segredo de Brokeback Mountain, ações judiciais" . COM CABO . 17 de dezembro de 2009 . Recuperado em 1 de junho de 2015 .
  75. ^ "Atualização do Prêmio Netflix" . Fórum do Prêmio Netflix. 2010-03-12.
  76. ^ Lathia, N., Hailes, S., Capra, L., Amatriain, X.: Diversidade temporal em sistemas de recomendação [ link morto ] . In: Proceedings of the 33rd International ACMSIGIR Conference on Research and Development in Information Retrieval, SIGIR 2010, pp. 210–217. ACM, Nova York
  77. ^ Turpin, Andrew H, Hersh, William (2001). "Por que as avaliações de lote e usuário não dão os mesmos resultados". Proceedings of the 24th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval . págs. 225-231.{{cite book}}: CS1 maint: multiple names: authors list (link)
  78. ^ "Conjunto de dados MovieLens" . 06-09-2013.
  79. ^ a b ChenHung-Hsuan; ChungChu-An; Huang Hsin-Chien; TsuiWen (2017-09-01). "Armadilhas comuns no treinamento e avaliação de sistemas de recomendação". Boletim ACM SIGKDD Explorations . 19 :37–45. doi : 10.1145/3137597.3137601 . S2CID 10651930 . 
  80. ^ Jannach, Dietmar; Lerche, Lucas; Gedikli, Fatih; Bonnin, Geoffray (2013-06-10). Carberry, Sandra; Weibelzahl, Stephan; Micarelli, Alessandro; Semeraro, Giovanni (eds.). Modelagem, Adaptação e Personalização do Usuário . Notas de aula em Ciência da Computação. Springer Berlim Heidelberg. págs.  25-37 . CiteSeerX 10.1.1.465.96 . doi : 10.1007/978-3-642-38844-6_3 . ISBN  9783642388439.
  81. ^ a b Turpin, Andrew H.; Hersh, William (2001-01-01). Por que as avaliações de lote e de usuário não dão os mesmos resultados . Proceedings of the 24th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval . SIGIR '01. Nova York, NY, EUA: ACM. págs.  225–231 . CiteSeerX 10.1.1.165.5800 . doi : 10.1145/383952.383992 . ISBN  978-1581133318. S2CID  18903114 .
  82. ^ Langer, Stefan (2015-09-14). "Uma comparação de avaliações off-line, avaliações on-line e estudos de usuários no contexto de sistemas de recomendação de artigos de pesquisa". Em Kapidakis, Sarantos; Mazurek, Cezary; Werla, Marcin (eds.). Pesquisa e Tecnologia Avançada para Bibliotecas Digitais . Notas de aula em Ciência da Computação. Vol. 9316. Springer International Publishing. pp. 153-168. doi : 10.1007/978-3-319-24592-8_12 . ISBN 9783319245911.
  83. ^ Basaran, Daniel; Ntoutsi, Eirini; Zimek, Arthur (2017). Anais da Conferência Internacional SIAM 2017 sobre Mineração de Dados . págs. 390–398. doi : 10.1137/1.9781611974973.44 . ISBN 978-1-61197-497-3.
  84. ^ Beel, Joeran; Genzmehr, Marcel; Langer, Stefan; Nürnberger, Andreas; Gipp, Bela (2013-01-01). Uma Análise Comparativa de Avaliações Offline e Online e Discussão de Avaliação do Sistema de Recomendação de Trabalhos de Pesquisa . Anais do Workshop Internacional sobre Reprodutibilidade e Replicação na Avaliação de Sistemas de Recomendação . Rep Sys '13. Nova York, NY, EUA: ACM. págs. 7–14. CiteSeerX 10.1.1.1031.973 . doi : 10.1145/2532508.2532511 . ISBN  9781450324656. S2CID  8202591 .
  85. ^ Cañamares, Rocío; Castells, Pablo (julho de 2018). Devo seguir a multidão? Uma análise probabilística da eficácia da popularidade em sistemas de recomendação (PDF) . 41st Annual International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR 2018). Ann Arbor, Michigan, EUA: ACM. págs. 415-424. doi : 10.1145/3209978.3210014 .
  86. ^ Cañamares, Rocío; Castells, Pablo; Moffat, Alistair (março de 2020). "Opções de avaliação offline para sistemas de recomendação" (PDF) . Recuperação de Informações . Springer. 23 (4): 387–410. doi : 10.1007/s10791-020-09371-3 . S2CID 213169978 .  
  87. ^ Ziegler, CN, McNee, SM, Konstan, JA e Lausen, G. (2005). "Melhorar as listas de recomendações por meio da diversificação de tópicos". Anais da 14ª Conferência Internacional sobre World Wide Web . págs. 22–32.{{cite book}}: CS1 maint: multiple names: authors list (link)
  88. ^ a b Castells, Pablo; Hurley, Neil J.; Vargas, Saúl (2015). "Novidade e Diversidade em Sistemas de Recomendação" . Em Ricci, Francesco; Rokach, Lior; Shapira, Bracha (eds.). Manual de Sistemas de Recomendação (2 ed.). Springer EUA. págs. 881-918. doi : 10.1007/978-1-4899-7637-6_26 . ISBN 978-1-4899-7637-6.
  89. ^ Joeran Beel; Stefan Langer; Marcel Genzmehr; Andreas Nürnberger (setembro de 2013). "Persistência em sistemas de recomendação: dando as mesmas recomendações para os mesmos usuários várias vezes" (PDF) . Em Trond Aalberg; Milena Dobreva; Christos Papatheodorou; Giannis Tsakonas; Charles Farrugia (eds.). Anais da 17ª Conferência Internacional sobre Teoria e Prática de Bibliotecas Digitais (TPDL 2013) . Notas de Aula de Ciência da Computação (LNCS). Vol. 8092. Springer. págs. 390–394 . Recuperado em 1 de novembro de 2013 .
  90. ^ Cosley, D., Lam, SK, Albert, I., Konstan, JA, Riedl, {J}. (2003). "É ver para crer?: como as interfaces do sistema de recomendação afetam a opinião dos usuários" (PDF) . Anais da conferência SIGCHI sobre Fatores humanos em sistemas de computação . págs. 585–592. S2CID 8307833 .  {{cite book}}: CS1 maint: multiple names: authors list (link)
  91. ^ {P}u, {P}., {C}hen, {L}., {H}u, {R}. (2012). "Avaliando sistemas de recomendação na perspectiva do usuário: levantamento do estado da arte" (PDF) . Modelagem do usuário e interação adaptada ao usuário : 1–39. {{cite journal}}: CS1 maint: multiple names: authors list (link)
  92. ^ Naren Ramakrishnan; Benjamin J. Keller; Batul J. Mirza; Ananth Y. Grama; George Karypis (2001). Riscos de privacidade em sistemas de recomendação . Computação da Internet IEEE . Vol. 5. Piscataway, NJ: Departamento de Atividades Educacionais do IEEE . págs.  54–62 . CiteSeerX 10.1.1.2.2932 . doi : 10.1109/4236.968832 . ISBN  978-1-58113-561-9.
  93. ^ Joeran Beel; Stefan Langer; Andreas Nürnberger; Marcel Genzmehr (setembro de 2013). "O Impacto da Demografia (Idade e Gênero) e Outras Características do Usuário na Avaliação de Sistemas de Recomendação" (PDF) . Em Trond Aalberg; Milena Dobreva; Christos Papatheodorou; Giannis Tsakonas; Charles Farrugia (eds.). Anais da 17ª Conferência Internacional sobre Teoria e Prática de Bibliotecas Digitais (TPDL 2013) . Springer. págs. 400–404 . Recuperado em 1 de novembro de 2013 .
  94. ^ {K}onstan, {J}.{A}., {R}iedl, {J}. (2012). "Sistemas de recomendação: dos algoritmos à experiência do usuário" (PDF) . Modelagem de Usuário e Interação Adaptada ao Usuário . 22 (1–2): 1–23. doi : 10.1007/s11257-011-9112-x . S2CID 8996665 .  {{cite journal}}: CS1 maint: multiple names: authors list (link)
  95. ^ {R}icci, {F}., {R}okach, {L}., {S}hapira, {B}., {K}antor {B}. {P}. (2011). "Manual de sistemas de recomendação". Manual de Sistemas de Recomendação : 1–35. Bibcode : 2011rsh..book.....R .{{cite journal}}: CS1 maint: multiple names: authors list (link)
  96. ^ Möller, Judith; Trilling, Damian; Helberger, Natali; van Es, Bram (2018-07-03). "Não culpe o algoritmo: uma avaliação empírica de vários sistemas de recomendação e seu impacto na diversidade de conteúdo" . Informação, Comunicação e Sociedade . 21 (7): 959-977. doi : 10.1080/1369118X.2018.1444076 . ISSN 1369-118X . S2CID 149344712 .  
  97. ^ Montaner, Miquel, L{\'o}pez, Beatriz, de la Rosa, Josep Llu{\'\i}s (2002). "Desenvolver confiança nos agentes de recomendação" . Anais da primeira conferência conjunta internacional sobre agentes autônomos e sistemas multiagentes: parte 1 . págs. 304–305.{{cite book}}: CS1 maint: multiple names: authors list (link)
  98. Beel, Joeran, Langer, Stefan, Genzmehr, Marcel (setembro de 2013). "Recomendações patrocinadas versus orgânicas (papel de pesquisa) e o impacto da rotulagem" (PDF) . Em Trond Aalberg; Milena Dobreva; Christos Papatheodorou; Giannis Tsakonas; Charles Farrugia (eds.). Anais da 17ª Conferência Internacional sobre Teoria e Prática de Bibliotecas Digitais (TPDL 2013) . págs. 395–399 . Recuperado em 2 de dezembro de 2013 . {{cite book}}: CS1 maint: multiple names: authors list (link)
  99. ^ Ferrari Dacrema, Maurizio; Boglio, Simone; Cremonesi, Paulo; Jannach, Dietmar (8 de janeiro de 2021). "Uma análise preocupante de reprodutibilidade e progresso na pesquisa de sistemas de recomendação" . Transações ACM em Sistemas de Informação . 39 (2): 1–49. arXiv : 1911.07698 . doi : 10.1145/3434185 . S2CID 208138060 . 
  100. ^ Ferrari Dacrema, Maurizio; Cremonesi, Paulo; Jannach, Dietmar (2019). "Estamos realmente fazendo muito progresso? Uma análise preocupante das recentes abordagens de recomendação neural" . Anais da 13ª Conferência da ACM sobre Sistemas de Recomendação . RecSys '19. ACM: 101-109. arXiv : 1907.06902 . doi : 10.1145/3298689.3347058 . hdl : 11311/1108996 . ISBN 9781450362436. S2CID  196831663 . Recuperado em 16 de outubro de 2019 .
  101. ^ Rendle, Steffen; Krichene, Walid; Zhang, Li; Anderson, John (22 de setembro de 2020). "Filtragem colaborativa neural versus fatoração matricial revisitada" . XIV Conferência da ACM sobre Sistemas de Recomendação : 240–248. arXiv : 2005.09683 . doi : 10.1145/3383313.3412488 . ISBN 9781450375832.
  102. ^ Sol, Zhu; Yu, Di; Fang, Hui; Yang, Jie; Qu, Xinghua; Zhang, Jie; Geng, Cong (2020). "Estamos Avaliando Rigorosamente? Recomendação de Benchmarking para Avaliação Reprodutível e Comparação Justa" . RecSys '20: Décima Quarta Conferência ACM sobre Sistemas de Recomendação . ACM: 23-32. doi : 10.1145/3383313.3412489 . ISBN 9781450375832. S2CID  221785064 .
  103. ^ Schifferer, Benedikt; Deotte, Chris; Puget, Jean-François; de Souza Pereira, Gabriel; Titericz, Gilberto; Liu, Jiwei; Aki, Ronay. "Usando Deep Learning para vencer o desafio Booking.com WSDM WebTour21 em recomendações sequenciais" (PDF) . WSDM '21: Conferência ACM sobre Pesquisa na Web e Mineração de Dados . ACM.
  104. ^ Volkovs, Maksims; Rai, Himanshu; Cheng, Zhaoyue; Wu, Ga; Lu, Yichao; Sanner, Scott (2018). "Modelo de dois estágios para continuação automática da lista de reprodução em escala" . RecSys '18: Décima Quarta Conferência ACM sobre Sistemas de Recomendação . ACM: 1–6. doi : 10.1145/3267471.3267480 . ISBN 9781450365864. S2CID  52942462 .
  105. ^ Yves Raimond, Justin Basilico Deep Learning for Recommender Systems , Deep Learning Re-Work SF Summit 2018
  106. ^ Ekstrand, Michael D.; Ludwig, Michael; Konstan, Joseph A.; Riedl, John T. (2011-01-01). Repensando o Ecossistema de Pesquisa do Recomendador: Reprodutibilidade, Abertura e LensKit . Proceedings of the Fifth ACM Conference on Recommender Systems . RecSys '11. Nova York, NY, EUA: ACM. págs. 133-140. doi : 10.1145/2043932.2043958 . ISBN 9781450306836. S2CID  2215419 .
  107. ^ Konstan, Joseph A.; Adomavicius, Gediminas (2013-01-01). Rumo à Identificação e Adoção das Melhores Práticas em Pesquisa de Sistemas de Recomendação Algorítmica . Anais do Workshop Internacional sobre Reprodutibilidade e Replicação na Avaliação de Sistemas de Recomendação . Rep Sys '13. Nova York, NY, EUA: ACM. págs. 23-28. doi : 10.1145/2532508.2532513 . ISBN 9781450324656. S2CID  333956 .
  108. ^ a b Breitinger, Corinna; Langer, Stefan; Lommatzsch, Andreas; Gipp, Bela (2016-03-12). "Rumo à reprodutibilidade na pesquisa de sistemas de recomendação" . Modelagem de Usuário e Interação Adaptada ao Usuário . 26 (1): 69–101. doi : 10.1007/s11257-016-9174-x . ISSN 0924-1868 . S2CID 388764 .  
  109. ^ Disse, Alan; Bellogín, Alejandro (2014-10-01). Avaliação comparativa de sistemas de recomendação: frameworks de recomendação de benchmarking . Anais da 8ª Conferência da ACM sobre Sistemas de Recomendação . RecSys '14. Nova York, NY, EUA: ACM. págs. 129-136. doi : 10.1145/2645710.2645746 . hdl : 10486/665450 . ISBN 9781450326681. S2CID  15665277 .

Leitura adicional

Livros
Artigos científicos

Links externos