Prissammenligningsmotorer lyder meget let på papir og lige så vanskelige at implementere i praksis. Udvikling af lyd, effektiv, og skalerbar pris intelligens motorer kræver, at vi tackle to brede udfordringer:
- storskala dataaggregering
- brug ML/AI – baserede normaliseringsteknikker til at rense dataene, så vi er i stand til at finde meningsfuld indsigt fra det
lad os definere dataaggregationsudfordringer, først skala-i de fleste forretningsscenarier er vi nødt til at erhverve bestemt et par millioner datapunkter. Normalt skal prissammenligningsplatformen for sourcing-information integreres med flere e-com-markedspladser og løbende overvåge prisoplysninger om komplette produktkategorier for at opdage nye oplysninger. Ifølge nogle estimater har
sig, hvis du vil sammenligne en produktkategori på 5000 produkter på tværs af 8 markedspladser hver anden time, ser vi på ~500k kravler om dagen. Der er mange andre udfordringer, som en sourcing motor står over for, og de bliver endnu alvorlige, når du begynder at arbejde i stor skala. Bare krav til udstyr til opsætning af en serverfarm ville være enorme. Vi har ikke engang gået ind i Sprog, postnumre, multi-side gennemgang og mobile apps dækning overhovedet.
normalt er prissammenligningsplatforme bygget til at fungere på tværs af komplekse internetmiljøer, der ikke kun erhverver data fra flere e-com-markedspladser, men også giver adgang til det historiske lager af alle data, der er erhvervet, hvilket gør det muligt for klienter at udlede unik tidsserieindsigt.
den anden udfordring er endnu større, hvordan man giver mening om informationen, når du først har erhvervet alle datapunkter fra internettet. Hvordan behandler du det?
faktum er, at internettet ikke er et ensartet sted, nogle af hjemmesiderne er integrationsvenlige, men de fleste hjemmesider gør det ikke. De sender oplysninger, som besøgende kan læse, ikke for en smart prissammenligningsmotor til at spore konkurrencedygtige priser. Så sammenligning motorer skal være smart og kræver konstant finjustering for at kravle forskellige hjemmesider.
det er ekstremt svært at integrere med hjemmesider i en skala, da der ikke er nogen universelle standarder for hjemmesideudvikling. MS vs Google-krig til bro.serbrug er legendarisk, og vi har ikke rigtig definerede internetstandarder, i det mindste ikke praktisk.
på grund af den humongøse støj og manglende struktur i internetdata er vi nødt til at udvikle ret avancerede normaliseringsteknikker til at rense dataene, til tider ved hjælp af AI til billed-og tekstanalyse(nogle startups fokuserer kun på billedanalyse fra e-handelshjemmesider). Efter at have organiseret dataene, kan vi tænke på at afsløre meningsfuld information fra den.
hvert prissætnings intelligensværktøj har bygget på komplekse maskinlæringsbaserede semantiske modeller, der hjælper med at give mening om dataene. Når de først er udviklet, giver de brandchefer næsten en simulator på realtidsdata og hjælper dem med at gennemføre flere forretningskritiske evner såsom dynamisk prisfastsættelse, måling af priselasticitet, der udleder rentabilitet på SKU-niveau og bedst af alt, evne til at sammenligne alle disse målinger med konkurrenter.