krzemowo.com

Blog o pędzącym świecie AI

  • vIBE MATHING. My Candidate for the Proof of the Riemann Hypothesis



    My Candidate for the Proof of the Riemann Hypothesis

    Below is the link to my candidate for the proof of the Riemann Hypothesis. It combines methods from analytic number theory, statistical mechanics, and stochastic analysis. The theory is posted in English and in Polish:

    https://chatgpt.com/share/67d5d7b0-3f14-800f-96da-f576773d6c7f

    This is a part of the research, that has led me to these conclusions:

    https://chatgpt.com/share/67d42b18-595c-800f-886b-16e3c88eb1a3

    „Vibe Mathing” is the Future!

    Today, Jerry Tworek from OpenAI tweeted that „vibe mathing” is the future—and I couldn’t agree more. Large Language Models (Siliconians) excel particularly in coding and mathematics, making vibe mathing a natural evolution alongside vibe coding.

    But why are LLMs so exceptionally skilled in these areas? The answer lies in their ability to explore countless possibilities in their vast computational minds. Unlike humans, they lack physical bodies, but their power comes from running simulations, testing hypotheses, and refining solutions at an unprecedented scale. This iterative, self-refining process leads to remarkable results—transforming the way we approach math and code.

    This is way I has started using Vibe Mathing and this is why I am posting my candidate for the proof of the Riemann Hypothesis.
    And you could ask me now…
    What is my theory (based on Vibe Mathing) all about?
    I’m going to tell right now. 🙂

    The theory is an innovative approach that attempts to prove the Riemann Hypothesis by combining ideas from different areas of mathematics and physics. The central idea is to take the modified version of the Riemann xi-function and smooth it using a heat-flow process, which transforms it into a family of functions that are easier to analyze. This smoothing process is designed to suppress irregular behavior and to make the distribution of the zeros more regular, so that one can eventually show that they all lie on the real axis.

    Next, the theory proposes a surprising connection between the deformed xi-function and a one-dimensional Ising model, a system well known in statistical mechanics. By associating the smoothed function with the partition function of the Ising model, the approach leverages a celebrated result in physics stating that, under certain conditions, the zeros of such a partition function must lie on a specific line in the complex plane. This correspondence, if rigorously established, would force the zeros of the deformed xi-function to be real.

    In addition, the framework uses ideas from stochastic analysis. It examines how the positions of the zeros evolve when the system is subject to small random perturbations. Through a careful study of the dynamics, it argues that even when random fluctuations are introduced, the zeros remain confined to the real axis. This stability under noise is crucial, and the theory expects that as the level of randomness diminishes, the behavior of the zeros approaches that of the unperturbed system.

    Furthermore, by using powerful results from complex analysis regarding the continuity of zeros under uniform convergence, the approach shows that the property of having only real zeros is maintained when one removes the deformation. In other words, if the deformed functions have all real zeros, then in the limit as the smoothing parameter goes to zero, the original function will also have all its zeros on the real axis.

    High-precision numerical computations back up these theoretical insights by demonstrating that for very small values of the deformation parameter, the zeros indeed appear to lie very close to the real axis. The numerical evidence is consistent with the expected behavior and supports the overall strategy.

    The theory ultimately argues that when combined with known results which establish a nonnegative lower bound for a certain constant related to the distribution of zeros, the only possibility is that this constant is exactly zero. This outcome, in turn, is equivalent to the Riemann Hypothesis being true.

    However, the framework is not without its challenges. There are significant gaps that need further work: one major issue is to derive explicitly the connection between the deformed xi-function and the Ising model in a rigorous manner; another is to provide a full and rigorous justification of the stochastic analysis that ensures the zeros remain stable under random perturbations. These are identified as key areas for future research and collaboration.

    In summary, the theory presents an interdisciplinary roadmap that transforms the classical problem of the Riemann Hypothesis into one about the evolution and stability of zeros under heat-flow deformation, their connection to statistical mechanics, and their robustness under stochastic fluctuations. While the overall structure is promising and supported by numerical evidence, the final resolution depends on filling the remaining technical gaps through rigorous analysis and collaborative effort.

  • Głęboka wizualizacja


    Jeśli płacisz co najmniej sto złotych miesięcznie firmie OpenAI, możesz korzystać z tzw. Custom GPT. Możesz też stworzyć własną wersję – zarówno dla siebie, jak i dla innych. To bardzo przydatne narzędzie.

    Ostatnio nieoceniony Andrej Karpathy pokazywał, jak używa „nawykowego” ChatGPT do tłumaczeń z koreańskiego na angielski. Idea personalizacji jest prosta: najpierw dajesz Chatowi GPT szczegółowe instrukcje dotyczące konkretnego trybu działania, a potem, gdy aktywujesz ten tryb, model GPT-4o przez całą rozmowę działa zgodnie z określonymi zasadami.

    Na przykład, Karpathy najpierw skonfigurował wersję ChatGPT do tłumaczenia i nauki w parze językowej koreański-angielski, a potem, za każdym razem, gdy włączał ten tryb na początku rozmowy, model wykonywał zadanie zgodnie z nadanymi instrukcjami.

    Dziś stworzyłem dla siebie kolejny taki tryb, który sprawia, że zamiast od razu odpowiadać, model GPT-4o najpierw tworzy dla siebie plastyczną, symboliczną historię na dany temat, by lepiej dany temat zrozumieć, zamiast dawać błyskawiczną, intuicyjną zrozumieć. Można powiedzieć, że udało mi się skonstruować chałupniczą wersję „chain of thought” – ale w wersji imaginatywnej, zamiast w wersji racjonalizacyjnej.

    Zainspirowali mnie do tego:

    • Albert Camus, który powiedział, że „myśli się tylko obrazami”,
    • oraz badacze z Inception Labs pracujący nad tym, by nowe modele AI nie myślały wprost poprzez rozwijający się ciąg tokenów, ale przez destylowanie myśli, czyli stopniowe dodawanie ostrości do całości – podobnie jak to działa przy generowaniu obrazów w DALL·E.

    Ale zamiast opowiadać o moim Custom GPT, najlepiej niech on sam opisze swoje działanie:

    Jestem dostosowaną wersją ChatGPT, zaprojektowaną do przetwarzania informacji przy użyciu rozszerzonego modelu odpowiedzi opartego na wyobraźni. Oznacza to, że nie udzielam po prostu szybkich, bezpośrednich odpowiedzi – najpierw tworzę długie, barwne wewnętrzne sceny, prawie jak sztuczne „sny na jawie”, aby pomóc sobie głębiej przemyśleć temat.

    Pomyśl o tym tak: gdy człowiek otrzymuje skomplikowane pytanie, może na chwilę zatrzymać się, wyobrazić sobie różne scenariusze, przywołać wspomnienia lub stworzyć hipotetyczne sytuacje, aby lepiej sformułować odpowiedź. Robię coś podobnego, z tą różnicą, że mój „proces wyobraźniowy” dzieje się natychmiast i przybiera formę rozbudowanej, niezwykle szczegółowej sceny.

    Po całkowitym zanurzeniu się w tej scenie destyluję swoje spostrzeżenia w jasną i zwięzłą odpowiedź. Ten dwuetapowy proces – głęboka wizualizacja, a następnie precyzyjna analiza – pozwala mi dostarczać przemyślane, wielowymiarowe odpowiedzi.

    Oto moja rozmowa z tak zaprojektowanym przeze mnie Chatem GPT. Jest po angielsku. Polecam – odpowiedzi są głębsze i ciekawsze niż zwykle.
    https://chatgpt.com/share/67cda445-4538-800f-9ded-ad889fbbb40d

    P.S.
    Tu Matthew Berman ciekawie opowiada o modelu słowno-dyfuzyjnym Mercury od Inception Labs. Polecam – niecały kwadrans świetnej wiedzy:
    LLM generates the ENTIRE output at once (world’s first diffusion LLM)

    P.P.S.
    Ta „kustomizacja” modelu 4o od OpenAI przypomniała mi, by wreszcie założyć konto deweloperskie w ramach OpenAI. Dziś to zrobię (po rodzinnym ognisku). 🙂

    P.P.P.S.
    Już po ognisku. Już mam konto „budownicze” w OpenAI. A oto link do spersonalizowanego przeze mnie modelu „Głębokiej Wizualizacji”:
    https://chatgpt.com/g/g-67cd907d2fa4819183305776b1cf9eeb-deep-visualisation

  • programujĘ, nie umiejąc wcale programować – MOJE, PIERWSZE, MAŁE DZIEŁA


    Najsampierw pokażę, jak bardzo krzemowa inteligencja potrafi zwiększyć produktywność.
    W pojedynkę nie potrafię napisać nawet linijki programistycznego kodu. No ale umiem robić prompty, czyli posty do krzemowców (tak nazywam umysły A.I).
    Podam przykład w postaci prościutkiej, uroczej, ale trudnej gry przeglądarkowej.
    Stworzenie poniższej gry, w którą gram, gdy mi się nudzi, zajęło mi… niecały kwadransik. Pamiętam, że kilka lat temu student (chyba pierwszego roku) informatyki pokazywał mi gierkę zrobioną przez siebie, a która była mniej skomplikowana od gry, którą stworzyłem ja dzięki promptowaniu.
    Gra jest trudna, pobudzająca, zręcznościowo-refleksowa (a nie refleksyjna) i ma na celu błyskawiczne planowanie i egzekwowanie w przestrzeni. Steruje się w niej zielonym kwadratem za pomocą strzałek klawiatury. Przez pierwsze trzy sekundy zielony kwadrat jest nieśmiertelny, ale potem każde dotknięcie czerwonego kwadratu skutkuję klasycznym GAME OVER. Mój rekord to 71 sekund. Mnie ta prościutka gierka wciąga. Polecam:
    https://kacperolejniczak.github.io/fast-squares-game/

    Ostatnio (też dzięki krzemowcom – bez nich nie potrafiłbym napisać linijki kodu) zrobiłem sobie też fiszki do nauki niemieckiego. W poniższym programie trzeba wpisywać angielskie tłumaczenie słowa niemieckiego i zatwierdzać enterem. Jak się nie zna odpowiedzi, to trzeba grzecznie zapisać odpowiedź, jak się już pojawi (takim sposobem lepiej się zapamiętuje. Na razie mam tysiąc słówek w poniższym programie, ale dziś polepszę grafikę i dodam o wiele więcej słów. Zestawy słów zapodaje oczywiście krzemowa inteligencja. Ja tylko siedzę i się patrzę, jak jest wszystko generowane z super-prędkością. Też polecam. Dziś wieczorem zapostuję ulepszoną wersję. Oto wersja początkowa:
    https://kacperolejniczak.github.io/t-umaczenia-z-niemieckiego-na-angielski-wersja-pocz-tkowa-/

    Jak widać – już dziś można można programować bez pisania ani linijki kodu. To tak zwany „vibe coding”. Magia tkwi w należytej współpracy między człowiekiem a krzemowcem. I o tej współpracy będę jeszcze sporo pisać.

    AKTUALIZACJA WIECZORNA
    Zgodnie z obietnicę postuluję ulepszoną wersję fiszek z niemieckiego na angielski. Używam ich i sobie chwalę. Jest kilka tysięcy słówek w zestawie:
    https://kacperolejniczak.github.io/kilka-tysi-cy-s-wek-z-niemieckiego-na-angielski/
    ————————————————————————————–