Czy ChatGPT może projektować roboty? Badania wykazują, że tak, ale…

AI, chatbot, bot, sztuczna inteligencja (źródło: Pixabay)

Bot (źródło: Pixabay)

Czy robot jest w stanie zaprojektować innego robota? ChatGPT – platforma AI, która potrafi tworzyć nie tylko wiersze, eseje, ale nawet książki – czy jest w stanie stworzyć inteligentną maszynę? Pewni badacze postanowili pogłębić ten temat i sprawdzić teorię w praktyce.

Pierwsze pytanie, z którym zwrócili się do ChatGPT, dotyczyło największych przyszłych wyzwań dla ludzkości. Dlaczego? Gdyż ich celem było nie tylko stworzenie zwykłego robota, ale takiego, który faktycznie będzie użyteczny. Ostatecznie wybrali problem związany z dostarczaniem żywności, a rozmowy z botem doprowadziły ich do pomysłu na stworzenie maszyny zbierającego pomidory.

Współpraca z ChatGPT: wiedza i pomocne sugestie

Badacze o wszystko pytali chat. Jak twierdzi jeden z nich, wprowadzenie AI okazało się szczególnie cenne w fazie koncepcyjnej, gdyż dzięki temu ich wiedza została wzbogacona o inne obszary ekspertyzy. Na przykład, czat-robot nauczył ich tego, które uprawy byłyby najbardziej ekonomicznie i opłacalne do automatyzacji.

Służył również pomocą w fazie implementacji, dając dobre rady, aby „zrobić chwytak z silikonu lub gumy, aby uniknąć zmiażdżenia pomidorów” i „że motor Dynamixel to najlepszy sposób na napęd robota„. Efektem tej współpracy między człowiekiem a AI jest robotyczne ramię zdolne do zbierania pomidorów.

Sztuczna inteligencja, (żródło: geralt, Pixabay)

Cała współpraca z ChatGPT została oceniona jako pozytywna i inspirująca. Jednak mimo tego zauważono, że ich rola jako inżynierów przesunęła się w kierunku wykonywania bardziej technicznych zadań. W skrajnym scenariuszu, AI dostarcza wszystkie dane do projektu robota, a człowiek ślepo je wykonuje. W takim przypadku, to sztuczna inteligencja jest tu badaczem i inżynierem, podczas gdy osoba nadzorująca pełni tylko rolę menadżera, określając cele projektu.

Ryzyko dezinformacji i kwestie prawne

Taki skrajny scenariusz nie jest jeszcze możliwy ze współczesnymi modelami języka, takimi jak ChatGPT. Wykorzystanie ich teraz niosłoby za sobą ryzyko, co zauważa jeden z naukowców zajmujących się projektem.

Wyniki generowane przez AI mogą być mylące, jeśli nie są weryfikowane lub walidowane. AI jest zaprojektowane do generowania 'najprawdopodobniejszej’ odpowiedzi na pytanie, więc istnieje ryzyko dezinformacji i uprzedzeń w dziedzinie robotyki

Dodatkowo praca z modelami języka niesie ze sobą również inne ważne kwestie, takie jak plagiat, śledzenie i własność intelektualna.

Exit mobile version