Słyszałem ostatnio więcej takich argumentów. I z technicznego punktu widzenia, prawdopodobnie prawda. Jednakże, myślę, że to pomija rolę Excela w procesie inwestycyjnym... Excel to proste, zaufane, w większości wolne od błędów, deterministyczne narzędzie do analizy historycznych fundamentów i prognozowania przyszłych fundamentów (gdzie żyje alfa). Możesz być zaskoczony, jak proste wyglądają modele wielu wielkich inwestorów, co odzwierciedla rzeczywistość, że większość inwestycji opiera się na 2-3 kluczowych zmiennych. Model jest również podstawowym narzędziem komunikacyjnym. "Chciałbym budować moje modele w Pythonie, ale mój CIO wciąż chce zobaczyć arkusz kalkulacyjny" to powszechna odpowiedź. Plik Excel można wysłać e-mailem, zapisać lokalnie na laptopie na spotkania zarządzające / wizyty w siedzibie, i bardzo łatwo go zweryfikować (twój model może mieć 800 wierszy, ale zazwyczaj tylko ~5-10% danych wejściowych wymaga rygorystycznego potrójnego sprawdzenia, ponieważ mogą one zadecydować o wyniku modelu... tzn. 6 lat temu Q3 D&A nie wpłynie na tezę, ale czysta, odpowiednio skorygowana liczba zysku brutto sprzed roku, która zgadza się z miękkim przewodnikiem zarządzania dotyczącym trajektorii GM bps, może). Myślę, że niektórzy ludzie również pomijają fakt, że IDE do MCP nie jest jeszcze dokładne. Jest lepsze, ale możliwości wielodokumentowego wyszukiwania nie są jeszcze dojrzałe. Model Excel o dokładności 70% jest bardzo frustrujący, szczególnie gdy zrzuciłeś doświadczenie budowania go i nie masz osobistego kontekstu do debugowania. W naszej rubryce narzędzi AI w zielonym/żółtym/czerwonym świetle, modele agentów kodujących przesunęły się z czerwonego światła do żółtego, ale nie przejdą do zielonego światła, dopóki nie osiągną dokładności 95%+ Więc chodzi o pewność i użyteczność. Arkusze kalkulacyjne nie są doskonałe, ale nie halucynują. Analitycy nie są doskonałymi, ale potrójnie sprawdzają i weryfikują ~5-10% kluczowych danych wejściowych (lub nie przetrwają długo). "Ale analitycy popełniają błędy...". Tak, popełniają, ale świetni analitycy wiedzą, gdzie niedokładność modelu jest akceptowalna / niekluczowa i gdzie dane wejściowe są krytyczne dla misji i obsesyjnie dbają o kontrole/weryfikacje oraz wieloaspektową strukturę modelowania. Ludzka dokładność w obszarach modelu zależnych od tezy, w moim doświadczeniu, wynosi 99,99% (mogę pomyśleć tylko o jednym lub dwóch brutalnych błędach zależnych od tezy w pięciu firmach, a obie miały realne konsekwencje kariery dla analityka i były bardzo złym widokiem dla PM, który powinien to zauważyć). A arkusze kalkulacyjne Excel są po prostu niezwykle użyteczne w górę, w dół i w całej organizacji, ponieważ analityk, który prowadzi arkusz kalkulacyjny, rzadko jest ostatecznym decydentem inwestycyjnym... arkusz Excel jest narzędziem myślenia i narzędziem komunikacyjnym, ponad wszystko. To może się zmienić, ale wymaga wsparcia CIO/PM/MD, czego nie czuję, że się dzieje (jeszcze). Więc, mając to na uwadze, obstawiam, że koniec arkuszy kalkulacyjnych jest przesadzony (chociaż radośnie eksperymentuję z nowymi narzędziami...)