prisjämförelse motorer låter mycket lätt på papper och lika svårt att genomföra i praktiken. Att utveckla sunda, effektiva och skalbara prisintelligensmotorer kräver att vi tar itu med två breda utmaningar:
- storskalig Dataaggregering
- använd ML/AI – baserade normaliseringstekniker för att rengöra data så att vi kan upptäcka meningsfulla insikter från det
låt oss definiera dataaggregeringsutmaningar, först skala-i de flesta affärsscenarier behöver vi säkert skaffa ett par miljoner datapunkter. Vanligtvis, för inköpsinformation, måste prisjämförelseplattformen integreras med flera e-com-marknadsplatser och kontinuerligt övervaka prisinformation om kompletta produktkategorier för att upptäcka ny information. Enligt vissa uppskattningar har bara Amazon(.com) en produktlista på 12 miljoner produkter, om du lägger till Amazon Marketplace-säljare sväller det till svindlande 350 miljoner produkter.
säg om du vill jämföra en produktkategori av 5000 produkter över 8 marknadsplatser varannan timme, vi tittar på ~500k crawls per dag. Det finns många andra utmaningar som en inköpsmotor står inför och de blir till och med allvarliga när du börjar arbeta i stor skala. Bara hårdvarukrav för att skapa en serverfarm skulle vara enorma. Vi har inte ens gått in i språk, Postnummer, flersidiga genomsökning och mobilappar täckning alls.
vanligtvis är prisjämförelseplattformar byggda för att fungera över komplexa webbmiljöer som inte bara förvärvar data från flera e-com-marknadsplatser utan också ger tillgång till den historiska butiken av alla förvärvade data, vilket gör det möjligt för kunder att härleda unika tidsserieinsikter.
den andra utmaningen är ännu större, hur man förstår informationen när du förvärvar alla datapunkter från webben. Hur bearbetar du det?
faktum är att World wide web inte är en enhetlig plats, några av webbplatserna är integrationsvänliga men de flesta webbplatser gör det inte. De publicerar information för besökare att läsa, inte för en smart prisjämförelsemotor för att spåra konkurrenskraftiga priser. Så, jämförelse motorer måste vara smart och kräver ständig tweaking för genomsökning olika webbplatser.
det är extremt svårt att integrera med webbplatser i en skala eftersom det inte finns några universella standarder för webbplatsutveckling. MS vs Google krig för webbläsaranvändning är legendarisk och vi har inte riktigt definierade webbstandarder, åtminstone inte praktiskt taget.
på grund av det humongous bruset och bristen på struktur i webbdata måste vi utveckla ganska avancerade normaliseringstekniker för att rengöra data, ibland med AI för bild-och textanalys(vissa startups fokuserar bara på bildanalys från e-handelswebbplatser). Efter att ha organiserat data kan vi tänka på att ta bort meningsfull information från den.
varje prisintelligensverktyg har byggt på komplexa maskininlärningsbaserade semantiska modeller som hjälper till att förstå data. Prissättningsverktyg tar dock mycket tid att mogna och utvecklas, när de väl utvecklats ger de varumärkeschefer nästan en simulator på realtidsdata och hjälper dem att genomföra flera affärskritiska förmågor som dynamisk prissättning, mätning av priselasticitet, härledande lönsamhet på SKU-nivå och bäst av allt, förmåga att jämföra alla dessa mätvärden med konkurrenter.