Хорошая статья хорошо поясняющая - в чем дело. GPT-нейросети собственно и работают на аналогиях, но при этом не формируют "модели мира". В то же время, написание программы, а тем более - большой системы - это и есть создание модели предметной области. Каждая новая задача запрограммировать некую систему - это задача создать модель, и даже не смотря на то, что в моделях зачастую есть много уже реализованного в других системах функционала, компоновка этого функционала тем не менее не позволяет просто взять куски кода и сшить их между собой - для систем среднего и более объема - это всегда уникальная разработка. Собственно, при наличие множества стандартных библиотек, фреймворков и конструкторов - не получается свести разработку таких систем к простой перекомпоновки уже имеющихся модулей, слишком много получается уникальных для конкретной задачи связей и форматов связей, ну и сами объекты хоть и похожи, но не один в один, из-за этого получается много работы, чтобы их совместить между собой. Поэтому имеющиеся средства быстрой разработки - типа тех же конструкторов сайтов - работают, пока конструкция вашего сайта простая, пока вы не начинаете хотеть чего-то своеобычного, а вот как только вам понадобятся кастомные объекты и сложные методы их взаимодействия - тут конструктор вам не то что не поможет, он начнет вам мешать в реализации, потому что его модель перестанет совпадать с вашей.
Ну и что касается говнокода - то, как программируется модель, влияет на удобство работы с моделью. Говнокод - это не про то, что его сложно потом читать - это полбеды, хотя даже и здесь - без разницы в какое сознание загружать (а чтение - это, собственно, и есть загрузка модели в сознание читающего) модель - в человеческое или в ИИ, ведь и ИИ потребуется как-то работать с этой моделью. А работать с ней придется - потому что практически всё ПО претерпевает постоянные изменения, любая программируемая система будет изменяться - и потому что изначальные требования могли быть сформулированы неточно или неправильно, и потому что программист неточно или неправильно понял и реализовал что-то и потребуется переделывать, и потому что со временем появляется запрос на изменение и/или добавление функционала системы в связи с изменившимися бизнес-требованиями - это всё ведет к постоянному пересмотру и модели. Говнокодеры лепят функционал, вкручивая костыли в свое ПО, и чем дальше, тем сложнее это делать - и потому, что в путанной модели хрен пойми куда вписывать функционал, и потому, что даже присовокупив этот функционал - из-за связности вылезают баги в неожиданных местах системы. Так и получается тот самый "Большой ком грязи". И работать с ним нормально не получится ни у человека, ни у ИИ - потому что сама модель, сама архитектура решения порождает огромное количество возможных проблем рассогласования. А чтобы этого избежать - нужно не просто генерить код, но и выстраивать внутреннюю структуру его, чего GPT сделать не может, потому что строить внутренние модели она не в состоянии.
И я пока не видел еще искусственных нейросетей, которые бы именно были предназначены для построения неких "ментальных" моделей, это-то и говорит о том, что тут нужен очередной "прорыв" научно-инженерный, а не просто наращивание мощностей уже имеющихся нейросетей. Когда - а он случится конечно же - этот прорыв произойдет - фиг знает. Когда же он произойдет - будет еще какое-то время, пока эту методу доведут до хорошего уровня, ну и так навскидку - это еще лет 10.
Отредактировано Так (2023-12-11 08:25:05)