Prøvde @mpp @gakonst i dag og bygde et LLM-chat-API som tar betalt per token via betalingskanaler på hovednettet @tempo. Bare en lommebok med USD og stream-tokens @claudeai @OpenAI @OpenRouter @alt_layer. Live på . Åpen kildekode på .
Problemet med LLM-fakturering: du oppretter en konto, legger til et kredittkort, setter utgiftsgrenser, får faktura månedlig, avstemmer. For agenter som gjør tusenvis av API-kall per time er dette ødelagt. MPP fikser det på protokollnivå.
Slik fungerer det: klienten sender POST /api/chat. Serveren returnerer HTTP 402 med en MPP-utfordring. Kunden åpner en betalingskanal på Tempo med pathUSD. Serveren strømmer tokens via SSE, kaller charge() for hver av dem. Kostnadsoppdateringer i sanntid. Kanalen slår seg ned på lukking.
Hva som gjør MPP annerledes enn Stripe: null overhead per forespørsel. Betalingskanalen åpner én gang. Påfølgende tokens belastes mot kanalbalansen med bare en Signatur, ingen on-chain transaksjon. 1000 tokens = 1000 ladninger = 0 ekstra gass.
Live på . Åpen kildekode på . MIT-lisens. pathUSD på Tempo mainnet. CC @tempo @stripe @paradigm @gakonst @wevm_dev @openrouter @alt_layer
342