De flesta AI-modeller idag lär sig från "anonym" data, i princip vad de än kan hitta på webben. När AI börjar fatta större beslut, som att diagnostisera en patient på sjukhus eller köra en självkörande bil, har vi inte råd att den datan ska vara ett "mysterium." Om datan är dålig (vad experter kallar "dataförgiftning") blir AI:ns beslut farliga. Hur Perle Labs åtgärdar det Tänk på @PerleLabs som en digital notarie för AI-data. Istället för att använda slumpmässiga grupper för att märka data, använder de granskade experter (som riktiga läkare eller advokater). Så här fungerar det i tre enkla steg: Expertlärare: Endast personer som faktiskt kan ämnet får undervisa AI:n. En radiolog kontrollerar de medicinska bilderna, inte en slumpmässig person med smartphone. Det oföränderliga kvittot: Varje gång en expert hjälper AI:n registreras den handlingen på en blockkedja. Detta skapar en permanent, "ohackbar" post så att ett företag kan bevisa exakt vem som tränade deras AI och var informationen kom ifrån. Rykte spelar roll: Om en expert konsekvent tillhandahåller bra information bygger de ett digitalt "CV" på plattformen som ger dem fler belöningar. Detta säkerställer att kvalitet alltid går före hastighet. Varför är detta viktigt? I en nära framtid, när en AI hjälper en domare eller kirurg, behöver vi inte bara "lita på" maskinen. Tack vare Perle Labs kan vi titta på "kvitton" och se att AI:n tränats av världens bästa mänskliga experter. @PerleLabs #PerleAI #ToPerle