Alignment: kunsten at få AI til at opføre sig ordentligt
Fra Annette Poulsen
views
Fra Annette Poulsen
Med fremkomsten af store sprogmodeller er ét spørgsmål blevet stadig vigtigere. Hvordan sikrer vi, at sprogmodellerne er nyttige og uskadelige for menneskelige brugere? Dette falder tilbage på vores “alignment” af sprogmodellerne og er resultatet af træningsprocessen, der går ind i udviklingen af disse modeller.
I denne præsentation dykker Marie ned i, hvordan man træner de store sprogmodeller fra base models til fine-tuning og Reinforcement Learning from Human Feedback (RLHF), men også det etiske dilemma, der opstår ved at aligne modeller. Fordi hvem skal beslutte, hvad der betragtes som skadeligt output? Og kan vi som mennesker blive enige om, hvad vores sociale fordomme er, så vi kan forhindre dem i vores fremtidige kunstige assistenter?
Bio: Marie er senior data science konsulent hos Implement Consulting Group, hvor hun til daglig arbejder med at få AI i spil i organisationer; lige fra afdækning af anvendelsesmuligheder og strategiske overvejelser til tekniske implementeringer.