source: CLRX/CLRadeonExtender/trunk/amdasm/AsmRegAlloc.cpp @ 3582

Last change on this file since 3582 was 3582, checked in by matszpk, 3 years ago

CLRadeonExtender: AsmRegAlloc?: Revert changes in AsmRegAlloc?. Fixed haveCalls if point have both calls and jumps.

File size: 72.7 KB
Line 
1/*
2 *  CLRadeonExtender - Unofficial OpenCL Radeon Extensions Library
3 *  Copyright (C) 2014-2018 Mateusz Szpakowski
4 *
5 *  This library is free software; you can redistribute it and/or
6 *  modify it under the terms of the GNU Lesser General Public
7 *  License as published by the Free Software Foundation; either
8 *  version 2.1 of the License, or (at your option) any later version.
9 *
10 *  This library is distributed in the hope that it will be useful,
11 *  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 *  Lesser General Public License for more details.
14 *
15 *  You should have received a copy of the GNU Lesser General Public
16 *  License along with this library; if not, write to the Free Software
17 *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
18 */
19
20#include <CLRX/Config.h>
21#include <stack>
22#include <deque>
23#include <vector>
24#include <utility>
25#include <unordered_set>
26#include <map>
27#include <set>
28#include <unordered_map>
29#include <algorithm>
30#include <CLRX/utils/Utilities.h>
31#include <CLRX/utils/Containers.h>
32#include <CLRX/amdasm/Assembler.h>
33#include "AsmInternals.h"
34
35using namespace CLRX;
36
37typedef AsmRegAllocator::CodeBlock CodeBlock;
38typedef AsmRegAllocator::NextBlock NextBlock;
39typedef AsmRegAllocator::SSAInfo SSAInfo;
40
41ISAUsageHandler::ISAUsageHandler(const std::vector<cxbyte>& _content) :
42            content(_content), lastOffset(0), readOffset(0), instrStructPos(0),
43            regUsagesPos(0), regUsages2Pos(0), regVarUsagesPos(0),
44            pushedArgs(0), argPos(0), argFlags(0), isNext(false), useRegMode(false)
45{ }
46
47ISAUsageHandler::~ISAUsageHandler()
48{ }
49
50void ISAUsageHandler::rewind()
51{
52    readOffset = instrStructPos = 0;
53    regUsagesPos = regUsages2Pos = regVarUsagesPos = 0;
54    useRegMode = false;
55    pushedArgs = 0;
56    skipBytesInInstrStruct();
57}
58
59void ISAUsageHandler::skipBytesInInstrStruct()
60{
61    // do not add instruction size if usereg (usereg immediately before instr regusages)
62    if ((instrStructPos != 0 || argPos != 0) && !useRegMode)
63        readOffset += defaultInstrSize;
64    argPos = 0;
65    for (;instrStructPos < instrStruct.size() &&
66        instrStruct[instrStructPos] > 0x80; instrStructPos++)
67        readOffset += (instrStruct[instrStructPos] & 0x7f);
68    isNext = (instrStructPos < instrStruct.size());
69}
70
71void ISAUsageHandler::putSpace(size_t offset)
72{
73    if (lastOffset != offset)
74    {
75        flush(); // flush before new instruction
76        // useReg immediately before instruction regusages
77        size_t defaultInstrSize = (!useRegMode ? this->defaultInstrSize : 0);
78        if (lastOffset > offset)
79            throw AsmException("Offset before previous instruction");
80        if (!instrStruct.empty() && offset - lastOffset < defaultInstrSize)
81            throw AsmException("Offset between previous instruction");
82        size_t toSkip = !instrStruct.empty() ? 
83                offset - lastOffset - defaultInstrSize : offset;
84        while (toSkip > 0)
85        {
86            size_t skipped = std::min(toSkip, size_t(0x7f));
87            instrStruct.push_back(skipped | 0x80);
88            toSkip -= skipped;
89        }
90        lastOffset = offset;
91        argFlags = 0;
92        pushedArgs = 0;
93    } 
94}
95
96void ISAUsageHandler::pushUsage(const AsmRegVarUsage& rvu)
97{
98    if (lastOffset == rvu.offset && useRegMode)
99        flush(); // only flush if useRegMode and no change in offset
100    else // otherwise
101        putSpace(rvu.offset);
102    useRegMode = false;
103    if (rvu.regVar != nullptr)
104    {
105        argFlags |= (1U<<pushedArgs);
106        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
107            rvu.rwFlags, rvu.align });
108    }
109    else // reg usages
110        regUsages.push_back({ rvu.regField,cxbyte(rvu.rwFlags |
111                    getRwFlags(rvu.regField, rvu.rstart, rvu.rend)) });
112    pushedArgs++;
113}
114
115void ISAUsageHandler::pushUseRegUsage(const AsmRegVarUsage& rvu)
116{
117    if (lastOffset == rvu.offset && !useRegMode)
118        flush(); // only flush if useRegMode and no change in offset
119    else // otherwise
120        putSpace(rvu.offset);
121    useRegMode = true;
122    if (pushedArgs == 0 || pushedArgs == 256)
123    {
124        argFlags = 0;
125        pushedArgs = 0;
126        instrStruct.push_back(0x80); // sign of regvarusage from usereg
127        instrStruct.push_back(0);
128    }
129    if (rvu.regVar != nullptr)
130    {
131        argFlags |= (1U<<(pushedArgs & 7));
132        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
133            rvu.rwFlags, rvu.align });
134    }
135    else // reg usages
136        regUsages2.push_back({ rvu.rstart, rvu.rend, rvu.rwFlags });
137    pushedArgs++;
138    if ((pushedArgs & 7) == 0) // just flush per 8 bit
139    {
140        instrStruct.push_back(argFlags);
141        instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
142        argFlags = 0;
143    }
144}
145
146void ISAUsageHandler::flush()
147{
148    if (pushedArgs != 0)
149    {
150        if (!useRegMode)
151        {
152            // normal regvarusages
153            instrStruct.push_back(argFlags);
154            if ((argFlags & (1U<<(pushedArgs-1))) != 0)
155                regVarUsages.back().rwFlags |= 0x80;
156            else // reg usages
157                regUsages.back().rwFlags |= 0x80;
158        }
159        else
160        {
161            // use reg regvarusages
162            if ((pushedArgs & 7) != 0) //if only not pushed args remains
163                instrStruct.push_back(argFlags);
164            instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
165        }
166    }
167}
168
169AsmRegVarUsage ISAUsageHandler::nextUsage()
170{
171    if (!isNext)
172        throw AsmException("No reg usage in this code");
173    AsmRegVarUsage rvu;
174    // get regvarusage
175    bool lastRegUsage = false;
176    rvu.offset = readOffset;
177    if (!useRegMode && instrStruct[instrStructPos] == 0x80)
178    {
179        // useRegMode (begin fetching useregs)
180        useRegMode = true;
181        argPos = 0;
182        instrStructPos++;
183        // pushedArgs - numer of useregs, 0 - 256 useregs
184        pushedArgs = instrStruct[instrStructPos++];
185        argFlags = instrStruct[instrStructPos];
186    }
187    rvu.useRegMode = useRegMode; // no ArgPos
188   
189    if ((instrStruct[instrStructPos] & (1U << (argPos&7))) != 0)
190    {
191        // regvar usage
192        const AsmRegVarUsageInt& inRVU = regVarUsages[regVarUsagesPos++];
193        rvu.regVar = inRVU.regVar;
194        rvu.rstart = inRVU.rstart;
195        rvu.rend = inRVU.rend;
196        rvu.regField = inRVU.regField;
197        rvu.rwFlags = inRVU.rwFlags & ASMRVU_ACCESS_MASK;
198        rvu.align = inRVU.align;
199        if (!useRegMode)
200            lastRegUsage = ((inRVU.rwFlags&0x80) != 0);
201    }
202    else if (!useRegMode)
203    {
204        // simple reg usage
205        const AsmRegUsageInt& inRU = regUsages[regUsagesPos++];
206        rvu.regVar = nullptr;
207        const std::pair<uint16_t, uint16_t> regPair =
208                    getRegPair(inRU.regField, inRU.rwFlags);
209        rvu.rstart = regPair.first;
210        rvu.rend = regPair.second;
211        rvu.rwFlags = (inRU.rwFlags & ASMRVU_ACCESS_MASK);
212        rvu.regField = inRU.regField;
213        rvu.align = 0;
214        lastRegUsage = ((inRU.rwFlags&0x80) != 0);
215    }
216    else
217    {
218        // use reg (simple reg usage, second structure)
219        const AsmRegUsage2Int& inRU = regUsages2[regUsages2Pos++];
220        rvu.regVar = nullptr;
221        rvu.rstart = inRU.rstart;
222        rvu.rend = inRU.rend;
223        rvu.rwFlags = inRU.rwFlags;
224        rvu.regField = ASMFIELD_NONE;
225        rvu.align = 0;
226    }
227    argPos++;
228    if (useRegMode)
229    {
230        // if inside useregs
231        if (argPos == (pushedArgs&0xff))
232        {
233            instrStructPos++; // end
234            skipBytesInInstrStruct();
235            useRegMode = false;
236        }
237        else if ((argPos & 7) == 0) // fetch new flag
238        {
239            instrStructPos++;
240            argFlags = instrStruct[instrStructPos];
241        }
242    }
243    // after instr
244    if (lastRegUsage)
245    {
246        instrStructPos++;
247        skipBytesInInstrStruct();
248    }
249    return rvu;
250}
251
252AsmRegAllocator::AsmRegAllocator(Assembler& _assembler) : assembler(_assembler)
253{ }
254
255static inline bool codeBlockStartLess(const AsmRegAllocator::CodeBlock& c1,
256                  const AsmRegAllocator::CodeBlock& c2)
257{ return c1.start < c2.start; }
258
259static inline bool codeBlockEndLess(const AsmRegAllocator::CodeBlock& c1,
260                  const AsmRegAllocator::CodeBlock& c2)
261{ return c1.end < c2.end; }
262
263void AsmRegAllocator::createCodeStructure(const std::vector<AsmCodeFlowEntry>& codeFlow,
264             size_t codeSize, const cxbyte* code)
265{
266    ISAAssembler* isaAsm = assembler.isaAssembler;
267    std::vector<size_t> splits;
268    std::vector<size_t> codeStarts;
269    std::vector<size_t> codeEnds;
270    codeStarts.push_back(0);
271    codeEnds.push_back(codeSize);
272    for (const AsmCodeFlowEntry& entry: codeFlow)
273    {
274        size_t instrAfter = 0;
275        if (entry.type == AsmCodeFlowType::JUMP || entry.type == AsmCodeFlowType::CJUMP ||
276            entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::RETURN)
277            instrAfter = entry.offset + isaAsm->getInstructionSize(
278                        codeSize - entry.offset, code + entry.offset);
279       
280        switch(entry.type)
281        {
282            case AsmCodeFlowType::START:
283                codeStarts.push_back(entry.offset);
284                break;
285            case AsmCodeFlowType::END:
286                codeEnds.push_back(entry.offset);
287                break;
288            case AsmCodeFlowType::JUMP:
289                splits.push_back(entry.target);
290                codeEnds.push_back(instrAfter);
291                break;
292            case AsmCodeFlowType::CJUMP:
293                splits.push_back(entry.target);
294                splits.push_back(instrAfter);
295                break;
296            case AsmCodeFlowType::CALL:
297                splits.push_back(entry.target);
298                splits.push_back(instrAfter);
299                break;
300            case AsmCodeFlowType::RETURN:
301                codeEnds.push_back(instrAfter);
302                break;
303            default:
304                break;
305        }
306    }
307    std::sort(splits.begin(), splits.end());
308    splits.resize(std::unique(splits.begin(), splits.end()) - splits.begin());
309    std::sort(codeEnds.begin(), codeEnds.end());
310    codeEnds.resize(std::unique(codeEnds.begin(), codeEnds.end()) - codeEnds.begin());
311    // remove codeStarts between codeStart and codeEnd
312    size_t i = 0;
313    size_t ii = 0;
314    size_t ei = 0; // codeEnd i
315    while (i < codeStarts.size())
316    {
317        size_t end = (ei < codeEnds.size() ? codeEnds[ei] : SIZE_MAX);
318        if (ei < codeEnds.size())
319            ei++;
320        codeStarts[ii++] = codeStarts[i];
321        // skip codeStart to end
322        for (i++ ;i < codeStarts.size() && codeStarts[i] < end; i++);
323    }
324    codeStarts.resize(ii);
325    // add next codeStarts
326    auto splitIt = splits.begin();
327    for (size_t codeEnd: codeEnds)
328    {
329        auto it = std::lower_bound(splitIt, splits.end(), codeEnd);
330        if (it != splits.end())
331        {
332            codeStarts.push_back(*it);
333            splitIt = it;
334        }
335        else // if end
336            break;
337    }
338   
339    std::sort(codeStarts.begin(), codeStarts.end());
340    codeStarts.resize(std::unique(codeStarts.begin(), codeStarts.end()) -
341                codeStarts.begin());
342    // divide to blocks
343    splitIt = splits.begin();
344    for (size_t codeStart: codeStarts)
345    {
346        size_t codeEnd = *std::upper_bound(codeEnds.begin(), codeEnds.end(), codeStart);
347        splitIt = std::lower_bound(splitIt, splits.end(), codeStart);
348       
349        if (splitIt != splits.end() && *splitIt==codeStart)
350            ++splitIt; // skip split in codeStart
351       
352        for (size_t start = codeStart; start < codeEnd; )
353        {
354            size_t end = codeEnd;
355            if (splitIt != splits.end())
356            {
357                end = std::min(end, *splitIt);
358                ++splitIt;
359            }
360            codeBlocks.push_back({ start, end, { }, false, false, false });
361            start = end;
362        }
363    }
364   
365    // construct flow-graph
366    for (const AsmCodeFlowEntry& entry: codeFlow)
367        if (entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::JUMP ||
368            entry.type == AsmCodeFlowType::CJUMP || entry.type == AsmCodeFlowType::RETURN)
369        {
370            std::vector<CodeBlock>::iterator it;
371            size_t instrAfter = entry.offset + isaAsm->getInstructionSize(
372                        codeSize - entry.offset, code + entry.offset);
373           
374            if (entry.type != AsmCodeFlowType::RETURN)
375                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
376                        CodeBlock{ entry.target }, codeBlockStartLess);
377            else // return
378            {
379                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
380                        CodeBlock{ 0, instrAfter }, codeBlockEndLess);
381                // if block have return
382                if (it != codeBlocks.end())
383                    it->haveEnd = it->haveReturn = true;
384                continue;
385            }
386           
387            if (it == codeBlocks.end())
388                continue; // error!
389            auto it2 = std::lower_bound(codeBlocks.begin(), codeBlocks.end(),
390                    CodeBlock{ instrAfter }, codeBlockStartLess);
391            auto curIt = it2;
392            --curIt;
393           
394            curIt->nexts.push_back({ size_t(it - codeBlocks.begin()),
395                        entry.type == AsmCodeFlowType::CALL });
396            curIt->haveCalls |= entry.type == AsmCodeFlowType::CALL;
397            if (entry.type == AsmCodeFlowType::CJUMP ||
398                 entry.type == AsmCodeFlowType::CALL)
399            {
400                curIt->haveEnd = false; // revert haveEnd if block have cond jump or call
401                if (it2 != codeBlocks.end())
402                    // add next next block
403                    curIt->nexts.push_back({ size_t(it2 - codeBlocks.begin()), false });
404            }
405            else if (entry.type == AsmCodeFlowType::JUMP)
406                curIt->haveEnd = true; // set end
407        }
408    // force haveEnd for block with cf_end
409    for (const AsmCodeFlowEntry& entry: codeFlow)
410        if (entry.type == AsmCodeFlowType::END)
411        {
412            auto it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
413                    CodeBlock{ 0, entry.offset }, codeBlockEndLess);
414            if (it != codeBlocks.end())
415                it->haveEnd = true;
416        }
417   
418    if (!codeBlocks.empty()) // always set haveEnd to last block
419        codeBlocks.back().haveEnd = true;
420   
421    // reduce nexts
422    for (CodeBlock& block: codeBlocks)
423    {
424        // first non-call nexts, for correct resolving SSA conflicts
425        std::sort(block.nexts.begin(), block.nexts.end(),
426                  [](const NextBlock& n1, const NextBlock& n2)
427                  { return int(n1.isCall)<int(n2.isCall) ||
428                      (n1.isCall == n2.isCall && n1.block < n2.block); });
429        auto it = std::unique(block.nexts.begin(), block.nexts.end(),
430                  [](const NextBlock& n1, const NextBlock& n2)
431                  { return n1.block == n2.block && n1.isCall == n2.isCall; });
432        block.nexts.resize(it - block.nexts.begin());
433    }
434}
435
436struct SSAId
437{
438    size_t ssaId;
439    size_t blockIndex;
440};
441
442// map of last SSAId for routine, key - varid, value - last SSA ids
443
444typedef std::unordered_map<AsmSingleVReg, std::vector<size_t> > LastSSAIdMap;
445struct RoutineData
446{
447    bool processed;
448    LastSSAIdMap regVarMap;
449};
450
451struct FlowStackEntry
452{
453    size_t blockIndex;
454    size_t nextIndex;
455    LastSSAIdMap replacedMultiSSAIds;
456        // ssaIds from called routine already visited before call
457    std::unordered_map<AsmSingleVReg, size_t> prevSSAIds;
458};
459
460struct CallStackEntry
461{
462    size_t callBlock; // index
463    size_t callNextIndex; // index of call next
464};
465
466struct ResolveEntry
467{
468    size_t sourceBlock;
469    bool handled;
470};
471
472typedef AsmRegAllocator::SSAReplace SSAReplace; // first - orig ssaid, second - dest ssaid
473typedef AsmRegAllocator::SSAReplacesMap SSAReplacesMap;
474
475static inline void insertReplace(SSAReplacesMap& rmap, const AsmSingleVReg& vreg,
476              size_t origId, size_t destId)
477{
478    auto res = rmap.insert({ vreg, {} });
479    res.first->second.push_back({ origId, destId });
480}
481
482static void resolveSSAConflicts(const std::deque<FlowStackEntry>& prevFlowStack,
483        const std::stack<CallStackEntry>& prevCallStack,
484        const std::vector<bool>& prevVisited,
485        const std::unordered_map<size_t, RoutineData>& routineMap,
486        const std::vector<CodeBlock>& codeBlocks,
487        SSAReplacesMap& replacesMap)
488{
489    size_t nextBlock = prevFlowStack.back().blockIndex;
490    auto pfEnd = prevFlowStack.end();
491    --pfEnd;
492    LastSSAIdMap stackVarMap;
493    for (auto pfit = prevFlowStack.begin(); pfit != pfEnd; ++pfit)
494    {
495        const FlowStackEntry& entry = *pfit;
496        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
497        for (const auto& sentry: cblock.ssaInfoMap)
498        {
499            const SSAInfo& sinfo = sentry.second;
500            if (sinfo.ssaIdChange != 0)
501                stackVarMap[sentry.first] = { sinfo.ssaId + sinfo.ssaIdChange - 1 };
502        }
503        for (const NextBlock& next: cblock.nexts)
504            if (next.isCall)
505            {
506                const LastSSAIdMap& regVarMap =
507                        routineMap.find(next.block)->second.regVarMap;
508                for (const auto& sentry: regVarMap)
509                    stackVarMap[sentry.first] = sentry.second;
510            }
511    }
512   
513    std::stack<CallStackEntry> callStack = prevCallStack;
514    // traverse by graph from next block
515    std::deque<FlowStackEntry> flowStack;
516    flowStack.push_back({ nextBlock, 0 });
517    std::vector<bool> visited(codeBlocks.size(), false);
518   
519    std::unordered_map<AsmSingleVReg, ResolveEntry> toResolveMap;
520   
521    while (!flowStack.empty())
522    {
523        FlowStackEntry& entry = flowStack.back();
524        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
525       
526        if (entry.nextIndex == 0)
527        {
528            // process current block
529            if (!visited[entry.blockIndex])
530            {
531                visited[entry.blockIndex] = true;
532                for (auto& sentry: cblock.ssaInfoMap)
533                {
534                    const SSAInfo& sinfo = sentry.second;
535                    auto res = toResolveMap.insert({ sentry.first,
536                        { entry.blockIndex, false } });
537                   
538                    if (res.second && sinfo.readBeforeWrite)
539                    {
540                        // resolve conflict for this variable ssaId>
541                        auto it = stackVarMap.find(sentry.first);
542                       
543                        if (it != stackVarMap.end())
544                            // found, resolve by set ssaIdLast
545                            for (size_t ssaId: it->second)
546                                if (ssaId > sinfo.ssaIdBefore)
547                                    insertReplace(replacesMap, sentry.first, ssaId,
548                                                sinfo.ssaIdBefore);
549                        res.first->second.handled = true;
550                    }
551                }
552            }
553            else
554            {
555                // back, already visited
556                flowStack.pop_back();
557                continue;
558            }
559        }
560       
561        if (!callStack.empty() &&
562            entry.blockIndex == callStack.top().callBlock &&
563            entry.nextIndex-1 == callStack.top().callNextIndex)
564            callStack.pop(); // just return from call
565       
566        if (entry.nextIndex < cblock.nexts.size() &&
567            prevVisited[cblock.nexts[entry.nextIndex].block])
568        {
569            if (cblock.nexts[entry.nextIndex].isCall)
570                callStack.push({ entry.blockIndex, entry.nextIndex });
571            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
572            entry.nextIndex++;
573        }
574        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
575                // if have any call then go to next block
576                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
577                 !cblock.haveReturn && !cblock.haveEnd &&
578                 prevVisited[entry.blockIndex+1])
579        {
580            flowStack.push_back({ entry.blockIndex+1, 0 });
581            entry.nextIndex++;
582        }
583        else // back
584        {
585            for (const auto& sentry: cblock.ssaInfoMap)
586            {
587                // mark resolved variables as not handled for further processing
588                auto it = toResolveMap.find(sentry.first);
589                if (it != toResolveMap.end() && !it->second.handled &&
590                    it->second.sourceBlock == entry.blockIndex)
591                    // remove if not handled yet
592                    toResolveMap.erase(it);
593            }
594            flowStack.pop_back();
595        }
596    }
597}
598
599static void joinRoutineData(LastSSAIdMap& dest, const LastSSAIdMap& src,
600                const std::unordered_map<AsmSingleVReg, SSAInfo>& prevSSAInfoMap)
601{
602    for (const auto& entry: src)
603    {
604        if (entry.first.regVar==nullptr)
605            continue;
606        auto res = dest.insert(entry); // find
607        if (res.second)
608            continue; // added new
609        auto ssaInfoIt = prevSSAInfoMap.find(entry.first);
610        std::vector<size_t>& destEntry = res.first->second;
611        if (ssaInfoIt->second.ssaIdChange!=0)
612        {
613            if (ssaInfoIt != prevSSAInfoMap.end())
614            {
615                auto it = std::find(destEntry.begin(), destEntry.end(),
616                                    ssaInfoIt->second.ssaIdLast);
617                if (it != destEntry.end())
618                    destEntry.erase(it); // remove old way
619            }
620            // add new ways
621            for (size_t ssaId: entry.second)
622            {
623                auto it = std::find(destEntry.begin(), destEntry.end(), ssaId);
624                if (it == destEntry.end())
625                    destEntry.push_back(ssaId);
626            }
627        }
628    }
629}
630
631static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src)
632{
633    for (const auto& entry: src)
634    {
635        auto res = dest.insert(entry); // find
636        if (res.second)
637            continue; // added new
638        std::vector<size_t>& destEntry = res.first->second;
639        // add new ways
640        for (size_t ssaId: entry.second)
641        {
642            auto it = std::find(destEntry.begin(), destEntry.end(), ssaId);
643            if (it == destEntry.end())
644                destEntry.push_back(ssaId);
645        }
646    }
647}
648
649static void removeLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src)
650{
651    for (const auto& entry: src)
652    {
653        auto destIt = dest.find(entry.first); // find
654        std::vector<size_t>& destEntry = destIt->second;
655        // add new ways
656        for (size_t ssaId: entry.second)
657        {
658            auto it = std::find(destEntry.begin(), destEntry.end(), ssaId);
659            if (it != destEntry.end())
660                destEntry.erase(it);
661        }
662    }
663}
664
665void AsmRegAllocator::createSSAData(ISAUsageHandler& usageHandler)
666{
667    usageHandler.rewind();
668    auto cbit = codeBlocks.begin();
669    AsmRegVarUsage rvu;
670    if (!usageHandler.hasNext())
671        return; // do nothing if no regusages
672    rvu = usageHandler.nextUsage();
673   
674    cxuint regRanges[MAX_REGTYPES_NUM*2];
675    cxuint realRegsCount[MAX_REGTYPES_NUM];
676    std::fill(realRegsCount, realRegsCount+MAX_REGTYPES_NUM, 0);
677    size_t regTypesNum;
678    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
679   
680    while (true)
681    {
682        while (cbit != codeBlocks.end() && cbit->end <= rvu.offset)
683        {
684            cbit->usagePos = usageHandler.getReadPos();
685            ++cbit;
686        }
687        if (cbit == codeBlocks.end())
688            break;
689        // skip rvu's before codeblock
690        while (rvu.offset < cbit->start && usageHandler.hasNext())
691            rvu = usageHandler.nextUsage();
692        if (rvu.offset < cbit->start)
693            break;
694       
695        cbit->usagePos = usageHandler.getReadPos();
696        while (rvu.offset < cbit->end)
697        {
698            // process rvu
699            // only if regVar
700            for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
701            {
702                auto res = cbit->ssaInfoMap.insert(
703                        { AsmSingleVReg{ rvu.regVar, rindex }, SSAInfo() });
704               
705                SSAInfo& sinfo = res.first->second;
706                if (res.second)
707                    sinfo.firstPos = rvu.offset;
708                if ((rvu.rwFlags & ASMRVU_READ) != 0 && sinfo.ssaIdChange == 0)
709                    sinfo.readBeforeWrite = true;
710                if (rvu.regVar!=nullptr && rvu.rwFlags == ASMRVU_WRITE &&
711                            rvu.regField!=ASMFIELD_NONE)
712                    sinfo.ssaIdChange++;
713            }
714            // get next rvusage
715            if (!usageHandler.hasNext())
716                break;
717            rvu = usageHandler.nextUsage();
718        }
719        ++cbit;
720    }
721   
722    std::stack<CallStackEntry> callStack;
723    std::deque<FlowStackEntry> flowStack;
724    // total SSA count
725    std::unordered_map<AsmSingleVReg, size_t> totalSSACountMap;
726    // last SSA ids in current way in code flow
727    std::unordered_map<AsmSingleVReg, size_t> curSSAIdMap;
728    // routine map - routine datas map, value - last SSA ids map
729    std::unordered_map<size_t, RoutineData> routineMap;
730    // initialize routineMap
731    for (const CodeBlock& cblock: codeBlocks)
732        for (const NextBlock& next: cblock.nexts)
733            // all forks and calls
734            routineMap[next.block].processed = false;
735   
736    LastSSAIdMap lastMultiSSAIdMap; // current SSA id from visited calls
737    std::unordered_set<size_t> selectedRoutines;
738    std::vector<bool> visited(codeBlocks.size(), false);
739    flowStack.push_back({ 0, 0 });
740   
741    while (!flowStack.empty())
742    {
743        FlowStackEntry& entry = flowStack.back();
744        CodeBlock& cblock = codeBlocks[entry.blockIndex];
745       
746        if (entry.nextIndex == 0)
747        {
748            // process current block
749            if (!visited[entry.blockIndex])
750            {
751                visited[entry.blockIndex] = true;
752               
753                for (auto& ssaEntry: cblock.ssaInfoMap)
754                {
755                    size_t& ssaId = curSSAIdMap[ssaEntry.first];
756                    size_t& totalSSACount = totalSSACountMap[ssaEntry.first];
757                    if (totalSSACount == 0 && ssaEntry.second.readBeforeWrite)
758                    {
759                        // first read before write at all, need change totalcount, ssaId
760                        ssaId++;
761                        totalSSACount++;
762                    }
763                    if (ssaId != totalSSACount) // save old ssaId
764                        entry.prevSSAIds.insert({ ssaEntry.first, ssaId });
765                    ssaEntry.second.ssaId = totalSSACount;
766                    ssaEntry.second.ssaIdFirst = ssaEntry.second.ssaIdChange!=0 ?
767                            totalSSACount : SIZE_MAX;
768                    ssaEntry.second.ssaIdBefore = ssaId-1;
769                    totalSSACount += ssaEntry.second.ssaIdChange;
770                    ssaEntry.second.ssaIdLast = ssaEntry.second.ssaIdChange!=0 ?
771                            totalSSACount-1 : SIZE_MAX;
772                    //totalSSACount = std::max(totalSSACount, ssaId);
773                    ssaId = totalSSACount;
774                }
775                // check if routineMap
776                auto rit = routineMap.find(entry.blockIndex);
777                if (rit != routineMap.end() && !rit->second.processed)
778                    selectedRoutines.insert(entry.blockIndex);
779                // add routine regvar map
780                for (size_t routine: selectedRoutines)
781                {
782                    LastSSAIdMap& regVarMap = routineMap.find(routine)->second.regVarMap;
783                    for (const auto& ssaEntry: cblock.ssaInfoMap)
784                    {
785                        const SSAInfo& sinfo = ssaEntry.second;
786                        if (sinfo.ssaIdChange!=0 && ssaEntry.first.regVar!=nullptr)
787                        {
788                            std::vector<size_t>& ssas = regVarMap[ssaEntry.first];
789                            auto lmsit = lastMultiSSAIdMap.find(ssaEntry.first);
790                            if (lmsit != lastMultiSSAIdMap.end())
791                            {
792                                // if many parallel ssaId from routine returns
793                                const std::vector<size_t>& ssaIdsToRemove = lmsit->second;
794                                for (size_t s: ssaIdsToRemove)
795                                {
796                                    auto ssaIt = std::find(ssas.begin(), ssas.end(), s);
797                                    if (ssaIt != ssas.end())
798                                        ssas.erase(ssaIt);
799                                    // add new
800                                    ssas.push_back(sinfo.ssaIdLast);
801                                }
802                                // add to replaced ssaid to revert changes at pop
803                                entry.replacedMultiSSAIds.insert(*lmsit);
804                                lastMultiSSAIdMap.erase(lmsit);
805                            }
806                            else
807                            {
808                                auto ssaIt = std::find(ssas.begin(), ssas.end(),
809                                            sinfo.ssaId-1);
810                                if (ssaIt != ssas.end()) // update this point
811                                    *ssaIt = sinfo.ssaIdLast;
812                                else if (std::find(ssas.begin(), ssas.end(),
813                                        sinfo.ssaIdLast) == ssas.end())
814                                    // otherwise add new way
815                                    ssas.push_back(sinfo.ssaIdLast);
816                            }
817                        }
818                    }
819                }
820            }
821            else
822            {
823                // join routine data
824                auto rit = routineMap.find(entry.blockIndex);
825                if (rit != routineMap.end() && rit->second.processed)
826                {
827                    // just join with selected routines
828                    // if this ways to return are visited before
829                    auto fcit = flowStack.end();
830                    --fcit;
831                    --fcit; // before this codeblock
832                    const std::unordered_map<AsmSingleVReg, SSAInfo>& prevSSAInfoMap =
833                            codeBlocks[fcit->blockIndex].ssaInfoMap;
834                    for (size_t routine: selectedRoutines)
835                        joinRoutineData(routineMap.find(routine)->second.regVarMap,
836                                rit->second.regVarMap, prevSSAInfoMap);
837                }
838                resolveSSAConflicts(flowStack, callStack, visited, routineMap, codeBlocks,
839                                    ssaReplacesMap);
840                // back, already visited
841                flowStack.pop_back();
842                continue;
843            }
844        }
845       
846        if (!callStack.empty() &&
847            entry.blockIndex == callStack.top().callBlock &&
848            entry.nextIndex-1 == callStack.top().callNextIndex)
849            callStack.pop(); // just return from call
850       
851        if (entry.nextIndex < cblock.nexts.size())
852        {
853            if (cblock.nexts[entry.nextIndex].isCall)
854                callStack.push({ entry.blockIndex, entry.nextIndex });
855           
856            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
857            entry.nextIndex++;
858        }
859        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
860                // if have any call then go to next block
861                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
862                 !cblock.haveReturn && !cblock.haveEnd)
863        {
864            if (entry.nextIndex!=0) // if back from call
865            {
866                // expand lastMultiSSAIdMap from all calls
867                for (const NextBlock& next: cblock.nexts)
868                if (next.isCall)
869                    {
870                        auto it = routineMap.find(next.block); // must find
871                        joinLastSSAIdMap(lastMultiSSAIdMap, it->second.regVarMap);
872                    }
873            }
874            flowStack.push_back({ entry.blockIndex+1, 0 });
875            entry.nextIndex++;
876        }
877        else // back
878        {
879            // revert lastMultiSSAIdMap changes (add removed entries)
880            if (cblock.haveCalls)
881            {
882                //remove all return parallel ssaids
883                for(const NextBlock& next: cblock.nexts)
884                    if (!next.isCall)
885                    {
886                        auto it = routineMap.find(next.block); // must find
887                        removeLastSSAIdMap(lastMultiSSAIdMap, it->second.regVarMap);
888                    }
889            }
890            else // normal block (revert changes in lastMultiSSAIdMap)
891                lastMultiSSAIdMap.insert(entry.replacedMultiSSAIds.begin(),
892                                entry.replacedMultiSSAIds.end());
893            // erase at pop from selectedRoutines
894            selectedRoutines.erase(entry.blockIndex); 
895            for (const auto& ssaEntry: cblock.ssaInfoMap)
896            {
897                auto it = entry.prevSSAIds.find(ssaEntry.first);
898                if (it == entry.prevSSAIds.end())
899                    curSSAIdMap[ssaEntry.first] -= ssaEntry.second.ssaIdChange;
900                else // if found
901                    curSSAIdMap[ssaEntry.first] = it->second;
902            }
903            flowStack.pop_back();
904        }
905    }
906}
907   
908void AsmRegAllocator::applySSAReplaces()
909{
910    /* prepare SSA id replaces */
911    struct MinSSAGraphNode
912    {
913        size_t minSSAId;
914        bool visited;
915        std::unordered_set<size_t> nexts;
916        MinSSAGraphNode() : minSSAId(SIZE_MAX), visited(false) { }
917    };
918    struct MinSSAGraphStackEntry
919    {
920        std::unordered_map<size_t, MinSSAGraphNode>::iterator nodeIt;
921        std::unordered_set<size_t>::const_iterator nextIt;
922        size_t minSSAId;
923    };
924   
925    for (auto& entry: ssaReplacesMap)
926    {
927        std::vector<SSAReplace>& replaces = entry.second;
928        std::sort(replaces.begin(), replaces.end());
929        replaces.resize(std::unique(replaces.begin(), replaces.end()) - replaces.begin());
930        std::vector<SSAReplace> newReplaces;
931       
932        std::unordered_map<size_t, MinSSAGraphNode> ssaGraphNodes;
933       
934        auto it = replaces.begin();
935        while (it != replaces.end())
936        {
937            auto itEnd = std::upper_bound(it, replaces.end(),
938                            std::make_pair(it->first, size_t(SIZE_MAX)));
939            {
940                MinSSAGraphNode& node = ssaGraphNodes[it->first];
941                node.minSSAId = std::min(node.minSSAId, it->second);
942                for (auto it2 = it; it2 != itEnd; ++it2)
943                    node.nexts.insert(it->second);
944            }
945            it = itEnd;
946        }
947        // propagate min value
948        std::stack<MinSSAGraphStackEntry> minSSAStack;
949        for (auto ssaGraphNodeIt = ssaGraphNodes.begin();
950                 ssaGraphNodeIt!=ssaGraphNodes.end(); )
951        {
952            minSSAStack.push({ ssaGraphNodeIt, ssaGraphNodeIt->second.nexts.begin() });
953            // traverse with minimalize SSA id
954            while (!minSSAStack.empty())
955            {
956                MinSSAGraphStackEntry& entry = minSSAStack.top();
957                MinSSAGraphNode& node = entry.nodeIt->second;
958                bool toPop = false;
959                if (entry.nextIt == node.nexts.begin())
960                {
961                    if (!node.visited)
962                        node.visited = true;
963                    else
964                        toPop = true;
965                }
966                if (!toPop && entry.nextIt != node.nexts.end())
967                {
968                    auto nodeIt = ssaGraphNodes.find(*entry.nextIt);
969                    if (nodeIt != ssaGraphNodes.end())
970                    {
971                        minSSAStack.push({ nodeIt, nodeIt->second.nexts.begin(),
972                                nodeIt->second.minSSAId });
973                    }
974                    ++entry.nextIt;
975                }
976                else
977                {
978                    node.minSSAId = std::min(node.minSSAId, entry.minSSAId);
979                    minSSAStack.pop();
980                    if (!minSSAStack.empty())
981                    {
982                        MinSSAGraphStackEntry& pentry = minSSAStack.top();
983                        pentry.minSSAId = std::min(pentry.minSSAId, node.minSSAId);
984                    }
985                }
986            }
987            // skip visited nodes
988            while (ssaGraphNodeIt != ssaGraphNodes.end())
989                if (!ssaGraphNodeIt->second.visited)
990                    break;
991        }
992       
993        for (const auto& entry: ssaGraphNodes)
994            newReplaces.push_back({ entry.first, entry.second.minSSAId });
995       
996        std::sort(newReplaces.begin(), newReplaces.end());
997        entry.second = newReplaces;
998    }
999   
1000    /* apply SSA id replaces */
1001    for (CodeBlock& cblock: codeBlocks)
1002        for (auto& ssaEntry: cblock.ssaInfoMap)
1003        {
1004            auto it = ssaReplacesMap.find(ssaEntry.first);
1005            if (it == ssaReplacesMap.end())
1006                continue;
1007            SSAInfo& sinfo = ssaEntry.second;
1008            std::vector<SSAReplace>& replaces = it->second;
1009            if (sinfo.readBeforeWrite)
1010            {
1011                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
1012                                 ssaEntry.second.ssaIdBefore);
1013                if (rit != replaces.end())
1014                    sinfo.ssaIdBefore = rit->second; // replace
1015            }
1016            if (sinfo.ssaIdFirst != SIZE_MAX)
1017            {
1018                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
1019                                 ssaEntry.second.ssaIdFirst);
1020                if (rit != replaces.end())
1021                    sinfo.ssaIdFirst = rit->second; // replace
1022            }
1023            if (sinfo.ssaIdLast != SIZE_MAX)
1024            {
1025                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
1026                                 ssaEntry.second.ssaIdLast);
1027                if (rit != replaces.end())
1028                    sinfo.ssaIdLast = rit->second; // replace
1029            }
1030        }
1031}
1032
1033struct Liveness
1034{
1035    std::map<size_t, size_t> l;
1036   
1037    Liveness() { }
1038   
1039    void clear()
1040    { l.clear(); }
1041   
1042    void expand(size_t k)
1043    {
1044        if (l.empty())
1045            l.insert(std::make_pair(k, k+1));
1046        else
1047        {
1048            auto it = l.end();
1049            --it;
1050            it->second = k+1;
1051        }
1052    }
1053    void newRegion(size_t k)
1054    {
1055        if (l.empty())
1056            l.insert(std::make_pair(k, k));
1057        else
1058        {
1059            auto it = l.end();
1060            --it;
1061            if (it->first != k && it->second != k)
1062                l.insert(std::make_pair(k, k));
1063        }
1064    }
1065   
1066    void insert(size_t k, size_t k2)
1067    {
1068        auto it1 = l.lower_bound(k);
1069        if (it1!=l.begin() && (it1==l.end() || it1->first>k))
1070            --it1;
1071        if (it1->second < k)
1072            ++it1;
1073        auto it2 = l.lower_bound(k2);
1074        if (it1!=it2)
1075        {
1076            k = std::min(k, it1->first);
1077            k2 = std::max(k2, (--it2)->second);
1078            l.erase(it1, it2);
1079        }
1080        l.insert(std::make_pair(k, k2));
1081    }
1082   
1083    bool contain(size_t t) const
1084    {
1085        auto it = l.lower_bound(t);
1086        if (it==l.begin() && it->first>t)
1087            return false;
1088        if (it==l.end() || it->first>t)
1089            --it;
1090        return it->first<=t && t<it->second;
1091    }
1092   
1093    bool common(const Liveness& b) const
1094    {
1095        auto i = l.begin();
1096        auto j = b.l.begin();
1097        for (; i != l.end() && j != b.l.end();)
1098        {
1099            if (i->first==i->second)
1100            {
1101                ++i;
1102                continue;
1103            }
1104            if (j->first==j->second)
1105            {
1106                ++j;
1107                continue;
1108            }
1109            if (i->first<j->first)
1110            {
1111                if (i->second > j->first)
1112                    return true; // common place
1113                ++i;
1114            }
1115            else
1116            {
1117                if (i->first < j->second)
1118                    return true; // common place
1119                ++j;
1120            }
1121        }
1122        return false;
1123    }
1124};
1125
1126typedef AsmRegAllocator::VarIndexMap VarIndexMap;
1127
1128static cxuint getRegType(size_t regTypesNum, const cxuint* regRanges,
1129            const AsmSingleVReg& svreg)
1130{
1131    cxuint regType; // regtype
1132    if (svreg.regVar!=nullptr)
1133        regType = svreg.regVar->type;
1134    else
1135        for (regType = 0; regType < regTypesNum; regType++)
1136            if (svreg.index >= regRanges[regType<<1] &&
1137                svreg.index < regRanges[(regType<<1)+1])
1138                break;
1139    return regType;
1140}
1141
1142static Liveness& getLiveness(const AsmSingleVReg& svreg, size_t ssaIdIdx,
1143        const AsmRegAllocator::SSAInfo& ssaInfo, std::vector<Liveness>* livenesses,
1144        const VarIndexMap* vregIndexMaps, size_t regTypesNum, const cxuint* regRanges)
1145{
1146    size_t ssaId;
1147    if (ssaIdIdx==0)
1148        ssaId = ssaInfo.ssaIdBefore;
1149    else if (ssaIdIdx==1)
1150        ssaId = ssaInfo.ssaIdFirst;
1151    else if (ssaIdIdx<ssaInfo.ssaIdChange)
1152        ssaId = ssaInfo.ssaId + ssaIdIdx-1;
1153    else // last
1154        ssaId = ssaInfo.ssaIdLast;
1155   
1156    cxuint regType = getRegType(regTypesNum, regRanges, svreg); // regtype
1157    const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
1158    const std::vector<size_t>& ssaIdIndices =
1159                vregIndexMap.find(svreg)->second;
1160    return livenesses[regType][ssaIdIndices[ssaId]];
1161}
1162
1163typedef std::deque<FlowStackEntry>::const_iterator FlowStackCIter;
1164
1165struct VRegLastPos
1166{
1167    size_t ssaId; // last SSA id
1168    std::vector<FlowStackCIter> blockChain; // subsequent blocks that changes SSAId
1169};
1170
1171/* TODO: add handling calls
1172 * handle many start points in this code (for example many kernel's in same code)
1173 * replace sets by vector, and sort and remove same values on demand
1174 */
1175
1176typedef std::unordered_map<AsmSingleVReg, VRegLastPos> LastVRegMap;
1177
1178static void putCrossBlockLivenesses(const std::deque<FlowStackEntry>& flowStack,
1179        const std::vector<CodeBlock>& codeBlocks,
1180        const Array<size_t>& codeBlockLiveTimes, const LastVRegMap& lastVRegMap,
1181        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
1182        size_t regTypesNum, const cxuint* regRanges)
1183{
1184    const CodeBlock& cblock = codeBlocks[flowStack.back().blockIndex];
1185    for (const auto& entry: cblock.ssaInfoMap)
1186        if (entry.second.readBeforeWrite)
1187        {
1188            // find last
1189            auto lvrit = lastVRegMap.find(entry.first);
1190            if (lvrit == lastVRegMap.end())
1191                continue; // not found
1192            const VRegLastPos& lastPos = lvrit->second;
1193            FlowStackCIter flit = lastPos.blockChain.back();
1194            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
1195            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
1196            const std::vector<size_t>& ssaIdIndices =
1197                        vregIndexMap.find(entry.first)->second;
1198            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
1199            FlowStackCIter flitEnd = flowStack.end();
1200            --flitEnd; // before last element
1201            // insert live time to last seen position
1202            const CodeBlock& lastBlk = codeBlocks[flit->blockIndex];
1203            size_t toLiveCvt = codeBlockLiveTimes[flit->blockIndex] - lastBlk.start;
1204            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
1205                    toLiveCvt + lastBlk.end);
1206            for (++flit; flit != flitEnd; ++flit)
1207            {
1208                const CodeBlock& cblock = codeBlocks[flit->blockIndex];
1209                size_t blockLiveTime = codeBlockLiveTimes[flit->blockIndex];
1210                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
1211            }
1212        }
1213}
1214
1215static void putCrossBlockForLoop(const std::deque<FlowStackEntry>& flowStack,
1216        const std::vector<CodeBlock>& codeBlocks,
1217        const Array<size_t>& codeBlockLiveTimes,
1218        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
1219        size_t regTypesNum, const cxuint* regRanges)
1220{
1221    auto flitStart = flowStack.end();
1222    --flitStart;
1223    size_t curBlock = flitStart->blockIndex;
1224    // find step in way
1225    while (flitStart->blockIndex != curBlock) --flitStart;
1226    auto flitEnd = flowStack.end();
1227    --flitEnd;
1228    std::unordered_map<AsmSingleVReg, std::pair<size_t, size_t> > varMap;
1229   
1230    // collect var to check
1231    size_t flowPos = 0;
1232    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
1233    {
1234        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
1235        for (const auto& entry: cblock.ssaInfoMap)
1236        {
1237            const SSAInfo& sinfo = entry.second;
1238            size_t lastSSAId = (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
1239                    (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
1240            varMap[entry.first] = { lastSSAId, flowPos };
1241        }
1242    }
1243    // find connections
1244    flowPos = 0;
1245    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
1246    {
1247        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
1248        for (const auto& entry: cblock.ssaInfoMap)
1249        {
1250            const SSAInfo& sinfo = entry.second;
1251            auto varMapIt = varMap.find(entry.first);
1252            if (!sinfo.readBeforeWrite || varMapIt == varMap.end() ||
1253                flowPos > varMapIt->second.second ||
1254                sinfo.ssaIdBefore != varMapIt->second.first)
1255                continue;
1256            // just connect
1257           
1258            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
1259            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
1260            const std::vector<size_t>& ssaIdIndices =
1261                        vregIndexMap.find(entry.first)->second;
1262            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
1263           
1264            if (flowPos == varMapIt->second.second)
1265            {
1266                // fill whole loop
1267                for (auto flit2 = flitStart; flit != flitEnd; ++flit)
1268                {
1269                    const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
1270                    size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
1271                    lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
1272                }
1273                continue;
1274            }
1275           
1276            size_t flowPos2 = 0;
1277            for (auto flit2 = flitStart; flowPos2 < flowPos; ++flit2, flowPos++)
1278            {
1279                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
1280                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
1281                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
1282            }
1283            // insert liveness for last block in loop of last SSAId (prev round)
1284            auto flit2 = flitStart + flowPos;
1285            const CodeBlock& firstBlk = codeBlocks[flit2->blockIndex];
1286            size_t toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - firstBlk.start;
1287            lv.insert(codeBlockLiveTimes[flit2->blockIndex],
1288                    firstBlk.ssaInfoMap.find(entry.first)->second.firstPos + toLiveCvt);
1289            // insert liveness for first block in loop of last SSAId
1290            flit2 = flitStart + (varMapIt->second.second+1);
1291            const CodeBlock& lastBlk = codeBlocks[flit2->blockIndex];
1292            toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - lastBlk.start;
1293            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
1294                    toLiveCvt + lastBlk.end);
1295            // fill up loop end
1296            for (++flit2; flit2 != flitEnd; ++flit2)
1297            {
1298                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
1299                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
1300                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
1301            }
1302        }
1303    }
1304}
1305
1306struct LiveBlock
1307{
1308    size_t start;
1309    size_t end;
1310    size_t vidx;
1311   
1312    bool operator==(const LiveBlock& b) const
1313    { return start==b.start && end==b.end && vidx==b.vidx; }
1314   
1315    bool operator<(const LiveBlock& b) const
1316    { return start<b.start || (start==b.start &&
1317            (end<b.end || (end==b.end && vidx<b.vidx))); }
1318};
1319
1320typedef AsmRegAllocator::LinearDep LinearDep;
1321typedef AsmRegAllocator::EqualToDep EqualToDep;
1322typedef std::unordered_map<size_t, LinearDep> LinearDepMap;
1323typedef std::unordered_map<size_t, EqualToDep> EqualToDepMap;
1324
1325static void addUsageDeps(const cxbyte* ldeps, const cxbyte* edeps, cxuint rvusNum,
1326            const AsmRegVarUsage* rvus, LinearDepMap* ldepsOut,
1327            EqualToDepMap* edepsOut, const VarIndexMap* vregIndexMaps,
1328            std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap,
1329            size_t regTypesNum, const cxuint* regRanges)
1330{
1331    // add linear deps
1332    cxuint count = ldeps[0];
1333    cxuint pos = 1;
1334    cxbyte rvuAdded = 0;
1335    for (cxuint i = 0; i < count; i++)
1336    {
1337        cxuint ccount = ldeps[pos++];
1338        std::vector<size_t> vidxes;
1339        cxuint regType = UINT_MAX;
1340        cxbyte align = rvus[ldeps[pos]].align;
1341        for (cxuint j = 0; j < ccount; j++)
1342        {
1343            rvuAdded |= 1U<<ldeps[pos];
1344            const AsmRegVarUsage& rvu = rvus[ldeps[pos++]];
1345            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
1346            {
1347                AsmSingleVReg svreg = {rvu.regVar, k};
1348                auto sit = ssaIdIdxMap.find(svreg);
1349                if (regType==UINT_MAX)
1350                    regType = getRegType(regTypesNum, regRanges, svreg);
1351                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
1352                const std::vector<size_t>& ssaIdIndices =
1353                            vregIndexMap.find(svreg)->second;
1354                // push variable index
1355                vidxes.push_back(ssaIdIndices[sit->second]);
1356            }
1357        }
1358        ldepsOut[regType][vidxes[0]].align = align;
1359        for (size_t k = 1; k < vidxes.size(); k++)
1360        {
1361            ldepsOut[regType][vidxes[k-1]].nextVidxes.push_back(vidxes[k]);
1362            ldepsOut[regType][vidxes[k]].prevVidxes.push_back(vidxes[k-1]);
1363        }
1364    }
1365    // add single arg linear dependencies
1366    for (cxuint i = 0; i < rvusNum; i++)
1367        if ((rvuAdded & (1U<<i)) == 0 && rvus[i].rstart+1<rvus[i].rend)
1368        {
1369            const AsmRegVarUsage& rvu = rvus[i];
1370            std::vector<size_t> vidxes;
1371            cxuint regType = UINT_MAX;
1372            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
1373            {
1374                AsmSingleVReg svreg = {rvu.regVar, k};
1375                auto sit = ssaIdIdxMap.find(svreg);
1376                if (regType==UINT_MAX)
1377                    regType = getRegType(regTypesNum, regRanges, svreg);
1378                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
1379                const std::vector<size_t>& ssaIdIndices =
1380                            vregIndexMap.find(svreg)->second;
1381                // push variable index
1382                vidxes.push_back(ssaIdIndices[sit->second]);
1383            }
1384            for (size_t j = 1; j < vidxes.size(); j++)
1385            {
1386                ldepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
1387                ldepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
1388            }
1389        }
1390       
1391    /* equalTo dependencies */
1392    count = edeps[0];
1393    pos = 1;
1394    for (cxuint i = 0; i < count; i++)
1395    {
1396        cxuint ccount = edeps[pos++];
1397        std::vector<size_t> vidxes;
1398        cxuint regType = UINT_MAX;
1399        for (cxuint j = 0; j < ccount; j++)
1400        {
1401            const AsmRegVarUsage& rvu = rvus[edeps[pos++]];
1402            // only one register should be set for equalTo depencencies
1403            // other registers in range will be resolved by linear dependencies
1404            AsmSingleVReg svreg = {rvu.regVar, rvu.rstart};
1405            auto sit = ssaIdIdxMap.find(svreg);
1406            if (regType==UINT_MAX)
1407                regType = getRegType(regTypesNum, regRanges, svreg);
1408            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
1409            const std::vector<size_t>& ssaIdIndices =
1410                        vregIndexMap.find(svreg)->second;
1411            // push variable index
1412            vidxes.push_back(ssaIdIndices[sit->second]);
1413        }
1414        for (size_t j = 1; j < vidxes.size(); j++)
1415        {
1416            edepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
1417            edepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
1418        }
1419    }
1420}
1421
1422typedef std::unordered_map<size_t, EqualToDep>::const_iterator EqualToDepMapCIter;
1423
1424struct EqualStackEntry
1425{
1426    EqualToDepMapCIter etoDepIt;
1427    size_t nextIdx; // over nextVidxes size, then prevVidxes[nextIdx-nextVidxes.size()]
1428};
1429
1430void AsmRegAllocator::createInterferenceGraph(ISAUsageHandler& usageHandler)
1431{
1432    // construct var index maps
1433    size_t graphVregsCounts[MAX_REGTYPES_NUM];
1434    std::fill(graphVregsCounts, graphVregsCounts+regTypesNum, 0);
1435    cxuint regRanges[MAX_REGTYPES_NUM*2];
1436    size_t regTypesNum;
1437    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
1438   
1439    for (const CodeBlock& cblock: codeBlocks)
1440        for (const auto& entry: cblock.ssaInfoMap)
1441        {
1442            const SSAInfo& sinfo = entry.second;
1443            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
1444            VarIndexMap& vregIndices = vregIndexMaps[regType];
1445            size_t& graphVregsCount = graphVregsCounts[regType];
1446            std::vector<size_t>& ssaIdIndices = vregIndices[entry.first];
1447            size_t ssaIdCount = 0;
1448            if (sinfo.readBeforeWrite)
1449                ssaIdCount = sinfo.ssaIdBefore+1;
1450            if (sinfo.ssaIdChange!=0)
1451            {
1452                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdLast+1);
1453                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdFirst+1);
1454            }
1455            if (ssaIdIndices.size() < ssaIdCount)
1456                ssaIdIndices.resize(ssaIdCount, SIZE_MAX);
1457           
1458            if (sinfo.readBeforeWrite)
1459                ssaIdIndices[sinfo.ssaIdBefore] = graphVregsCount++;
1460            if (sinfo.ssaIdChange!=0)
1461            {
1462                // fill up ssaIdIndices (with graph Ids)
1463                ssaIdIndices[sinfo.ssaIdFirst] = graphVregsCount++;
1464                for (size_t ssaId = sinfo.ssaId+1;
1465                        ssaId < sinfo.ssaId+sinfo.ssaIdChange-1; ssaId++)
1466                    ssaIdIndices[ssaId] = graphVregsCount++;
1467                ssaIdIndices[sinfo.ssaIdLast] = graphVregsCount++;
1468            }
1469        }
1470   
1471    // construct vreg liveness
1472    std::deque<FlowStackEntry> flowStack;
1473    std::vector<bool> visited(codeBlocks.size(), false);
1474    // hold last vreg ssaId and position
1475    LastVRegMap lastVRegMap;
1476    // hold start live time position for every code block
1477    Array<size_t> codeBlockLiveTimes(codeBlocks.size());
1478    std::unordered_set<size_t> blockInWay;
1479   
1480    std::vector<Liveness> livenesses[MAX_REGTYPES_NUM];
1481   
1482    for (size_t i = 0; i < regTypesNum; i++)
1483        livenesses[i].resize(graphVregsCounts[i]);
1484   
1485    size_t curLiveTime = 0;
1486   
1487    while (!flowStack.empty())
1488    {
1489        FlowStackEntry& entry = flowStack.back();
1490        CodeBlock& cblock = codeBlocks[entry.blockIndex];
1491       
1492        if (entry.nextIndex == 0)
1493        {
1494            // process current block
1495            if (!blockInWay.insert(entry.blockIndex).second)
1496            {
1497                // if loop
1498                putCrossBlockForLoop(flowStack, codeBlocks, codeBlockLiveTimes, 
1499                        livenesses, vregIndexMaps, regTypesNum, regRanges);
1500                flowStack.pop_back();
1501                continue;
1502            }
1503           
1504            codeBlockLiveTimes[entry.blockIndex] = curLiveTime;
1505            putCrossBlockLivenesses(flowStack, codeBlocks, codeBlockLiveTimes, 
1506                    lastVRegMap, livenesses, vregIndexMaps, regTypesNum, regRanges);
1507           
1508            for (const auto& sentry: cblock.ssaInfoMap)
1509            {
1510                const SSAInfo& sinfo = sentry.second;
1511                // update
1512                size_t lastSSAId =  (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
1513                        (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
1514                FlowStackCIter flit = flowStack.end();
1515                --flit; // to last position
1516                auto res = lastVRegMap.insert({ sentry.first, 
1517                            { lastSSAId, { flit } } });
1518                if (!res.second) // if not first seen, just update
1519                {
1520                    // update last
1521                    res.first->second.ssaId = lastSSAId;
1522                    res.first->second.blockChain.push_back(flit);
1523                }
1524            }
1525           
1526            size_t curBlockLiveEnd = cblock.end - cblock.start + curLiveTime;
1527            if (!visited[entry.blockIndex])
1528            {
1529                visited[entry.blockIndex] = true;
1530                std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap;
1531                AsmRegVarUsage instrRVUs[8];
1532                cxuint instrRVUsCount = 0;
1533               
1534                size_t oldOffset = cblock.usagePos.readOffset;
1535                std::vector<AsmSingleVReg> readSVRegs;
1536                std::vector<AsmSingleVReg> writtenSVRegs;
1537               
1538                usageHandler.setReadPos(cblock.usagePos);
1539                // register in liveness
1540                while (true)
1541                {
1542                    AsmRegVarUsage rvu = { 0U, nullptr, 0U, 0U };
1543                    size_t liveTimeNext = curBlockLiveEnd;
1544                    if (usageHandler.hasNext())
1545                    {
1546                        rvu = usageHandler.nextUsage();
1547                        if (rvu.offset >= cblock.end)
1548                            break;
1549                        if (!rvu.useRegMode)
1550                            instrRVUs[instrRVUsCount++] = rvu;
1551                        liveTimeNext = std::min(rvu.offset, cblock.end) -
1552                                cblock.start + curLiveTime;
1553                    }
1554                    size_t liveTime = oldOffset - cblock.start + curLiveTime;
1555                    if (!usageHandler.hasNext() || rvu.offset >= oldOffset)
1556                    {
1557                        // apply to liveness
1558                        for (AsmSingleVReg svreg: readSVRegs)
1559                        {
1560                            Liveness& lv = getLiveness(svreg, ssaIdIdxMap[svreg],
1561                                    cblock.ssaInfoMap.find(svreg)->second,
1562                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
1563                            if (!lv.l.empty() && (--lv.l.end())->first < curLiveTime)
1564                                lv.newRegion(curLiveTime); // begin region from this block
1565                            lv.expand(liveTime);
1566                        }
1567                        for (AsmSingleVReg svreg: writtenSVRegs)
1568                        {
1569                            size_t& ssaIdIdx = ssaIdIdxMap[svreg];
1570                            ssaIdIdx++;
1571                            SSAInfo& sinfo = cblock.ssaInfoMap.find(svreg)->second;
1572                            Liveness& lv = getLiveness(svreg, ssaIdIdx, sinfo,
1573                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
1574                            if (liveTimeNext != curBlockLiveEnd)
1575                                // because live after this instr
1576                                lv.newRegion(liveTimeNext);
1577                            sinfo.lastPos = liveTimeNext - curLiveTime + cblock.start;
1578                        }
1579                        // get linear deps and equal to
1580                        cxbyte lDeps[16];
1581                        cxbyte eDeps[16];
1582                        usageHandler.getUsageDependencies(instrRVUsCount, instrRVUs,
1583                                        lDeps, eDeps);
1584                       
1585                        addUsageDeps(lDeps, eDeps, instrRVUsCount, instrRVUs,
1586                                linearDepMaps, equalToDepMaps, vregIndexMaps, ssaIdIdxMap,
1587                                regTypesNum, regRanges);
1588                       
1589                        readSVRegs.clear();
1590                        writtenSVRegs.clear();
1591                        if (!usageHandler.hasNext())
1592                            break; // end
1593                        oldOffset = rvu.offset;
1594                        instrRVUsCount = 0;
1595                    }
1596                    if (rvu.offset >= cblock.end)
1597                        break;
1598                   
1599                    for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
1600                    {
1601                        // per register/singlvreg
1602                        AsmSingleVReg svreg{ rvu.regVar, rindex };
1603                        if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField == ASMFIELD_NONE)
1604                            writtenSVRegs.push_back(svreg);
1605                        else // read or treat as reading // expand previous region
1606                            readSVRegs.push_back(svreg);
1607                    }
1608                }
1609                curLiveTime += cblock.end-cblock.start;
1610            }
1611            else
1612            {
1613                // back, already visited
1614                flowStack.pop_back();
1615                continue;
1616            }
1617        }
1618        if (entry.nextIndex < cblock.nexts.size())
1619        {
1620            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1621            entry.nextIndex++;
1622        }
1623        else if (entry.nextIndex==0 && cblock.nexts.empty() && !cblock.haveEnd)
1624        {
1625            flowStack.push_back({ entry.blockIndex+1, 0 });
1626            entry.nextIndex++;
1627        }
1628        else // back
1629        {
1630            // revert lastSSAIdMap
1631            blockInWay.erase(entry.blockIndex);
1632            flowStack.pop_back();
1633            if (!flowStack.empty())
1634            {
1635                for (const auto& sentry: cblock.ssaInfoMap)
1636                {
1637                    auto lvrit = lastVRegMap.find(sentry.first);
1638                    if (lvrit != lastVRegMap.end())
1639                    {
1640                        VRegLastPos& lastPos = lvrit->second;
1641                        lastPos.ssaId = sentry.second.ssaIdBefore;
1642                        lastPos.blockChain.pop_back();
1643                        if (lastPos.blockChain.empty()) // just remove from lastVRegs
1644                            lastVRegMap.erase(lvrit);
1645                    }
1646                }
1647            }
1648        }
1649    }
1650   
1651    /// construct liveBlockMaps
1652    std::set<LiveBlock> liveBlockMaps[MAX_REGTYPES_NUM];
1653    for (size_t regType = 0; regType < regTypesNum; regType++)
1654    {
1655        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
1656        std::vector<Liveness>& liveness = livenesses[regType];
1657        for (size_t li = 0; li < liveness.size(); li++)
1658        {
1659            Liveness& lv = liveness[li];
1660            for (const std::pair<size_t, size_t>& blk: lv.l)
1661                if (blk.first != blk.second)
1662                    liveBlockMap.insert({ blk.first, blk.second, li });
1663            lv.clear();
1664        }
1665        liveness.clear();
1666    }
1667   
1668    // create interference graphs
1669    for (size_t regType = 0; regType < regTypesNum; regType++)
1670    {
1671        InterGraph& interGraph = interGraphs[regType];
1672        interGraph.resize(graphVregsCounts[regType]);
1673        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
1674       
1675        auto lit = liveBlockMap.begin();
1676        size_t rangeStart = 0;
1677        if (lit != liveBlockMap.end())
1678            rangeStart = lit->start;
1679        while (lit != liveBlockMap.end())
1680        {
1681            const size_t blkStart = lit->start;
1682            const size_t blkEnd = lit->end;
1683            size_t rangeEnd = blkEnd;
1684            auto liStart = liveBlockMap.lower_bound({ rangeStart, 0, 0 });
1685            auto liEnd = liveBlockMap.lower_bound({ rangeEnd, 0, 0 });
1686            // collect from this range, variable indices
1687            std::set<size_t> varIndices;
1688            for (auto lit2 = liStart; lit2 != liEnd; ++lit2)
1689                varIndices.insert(lit2->vidx);
1690            // push to intergraph as full subgGraph
1691            for (auto vit = varIndices.begin(); vit != varIndices.end(); ++vit)
1692                for (auto vit2 = varIndices.begin(); vit2 != varIndices.end(); ++vit2)
1693                    if (vit != vit2)
1694                        interGraph[*vit].insert(*vit2);
1695            // go to next live blocks
1696            rangeStart = rangeEnd;
1697            for (; lit != liveBlockMap.end(); ++lit)
1698                if (lit->start != blkStart && lit->end != blkEnd)
1699                    break;
1700            if (lit == liveBlockMap.end())
1701                break; //
1702            rangeStart = std::max(rangeStart, lit->start);
1703        }
1704    }
1705   
1706    /*
1707     * resolve equalSets
1708     */
1709    for (cxuint regType = 0; regType < regTypesNum; regType++)
1710    {
1711        InterGraph& interGraph = interGraphs[regType];
1712        const size_t nodesNum = interGraph.size();
1713        const std::unordered_map<size_t, EqualToDep>& etoDepMap = equalToDepMaps[regType];
1714        std::vector<bool> visited(nodesNum, false);
1715        std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
1716       
1717        for (size_t v = 0; v < nodesNum;)
1718        {
1719            auto it = etoDepMap.find(v);
1720            if (it == etoDepMap.end())
1721            {
1722                // is not regvar in equalTo dependencies
1723                v++;
1724                continue;
1725            }
1726           
1727            std::stack<EqualStackEntry> etoStack;
1728            etoStack.push(EqualStackEntry{ it, 0 });
1729           
1730            std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
1731            const size_t equalSetIndex = equalSetList.size();
1732            equalSetList.push_back(std::vector<size_t>());
1733            std::vector<size_t>& equalSet = equalSetList.back();
1734           
1735            // traverse by this
1736            while (!etoStack.empty())
1737            {
1738                EqualStackEntry& entry = etoStack.top();
1739                size_t vidx = entry.etoDepIt->first; // node index, vreg index
1740                const EqualToDep& eToDep = entry.etoDepIt->second;
1741                if (entry.nextIdx == 0)
1742                {
1743                    if (!visited[vidx])
1744                    {
1745                        // push to this equalSet
1746                        equalSetMap.insert({ vidx, equalSetIndex });
1747                        equalSet.push_back(vidx);
1748                    }
1749                    else
1750                    {
1751                        // already visited
1752                        etoStack.pop();
1753                        continue;
1754                    }
1755                }
1756               
1757                if (entry.nextIdx < eToDep.nextVidxes.size())
1758                {
1759                    auto nextIt = etoDepMap.find(eToDep.nextVidxes[entry.nextIdx]);
1760                    etoStack.push(EqualStackEntry{ nextIt, 0 });
1761                    entry.nextIdx++;
1762                }
1763                else if (entry.nextIdx < eToDep.nextVidxes.size()+eToDep.prevVidxes.size())
1764                {
1765                    auto nextIt = etoDepMap.find(eToDep.prevVidxes[
1766                                entry.nextIdx - eToDep.nextVidxes.size()]);
1767                    etoStack.push(EqualStackEntry{ nextIt, 0 });
1768                    entry.nextIdx++;
1769                }
1770                else
1771                    etoStack.pop();
1772            }
1773           
1774            // to first already added node (var)
1775            while (v < nodesNum && !visited[v]) v++;
1776        }
1777    }
1778}
1779
1780typedef AsmRegAllocator::InterGraph InterGraph;
1781
1782struct CLRX_INTERNAL SDOLDOCompare
1783{
1784    const InterGraph& interGraph;
1785    const Array<size_t>& sdoCounts;
1786   
1787    SDOLDOCompare(const InterGraph& _interGraph, const Array<size_t>&_sdoCounts)
1788        : interGraph(_interGraph), sdoCounts(_sdoCounts)
1789    { }
1790   
1791    bool operator()(size_t a, size_t b) const
1792    {
1793        if (sdoCounts[a] > sdoCounts[b])
1794            return true;
1795        return interGraph[a].size() > interGraph[b].size();
1796    }
1797};
1798
1799/* algorithm to allocate regranges:
1800 * from smallest regranges to greatest regranges:
1801 *   choosing free register: from smallest free regranges
1802 *      to greatest regranges:
1803 *         in this same regrange:
1804 *               try to find free regs in regranges
1805 *               try to link free ends of two distinct regranges
1806 */
1807
1808void AsmRegAllocator::colorInterferenceGraph()
1809{
1810    const GPUArchitecture arch = getGPUArchitectureFromDeviceType(
1811                    assembler.deviceType);
1812   
1813    for (size_t regType = 0; regType < regTypesNum; regType++)
1814    {
1815        const size_t maxColorsNum = getGPUMaxRegistersNum(arch, regType);
1816        InterGraph& interGraph = interGraphs[regType];
1817        const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
1818        Array<cxuint>& gcMap = graphColorMaps[regType];
1819        const std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
1820        const std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
1821       
1822        const size_t nodesNum = interGraph.size();
1823        gcMap.resize(nodesNum);
1824        std::fill(gcMap.begin(), gcMap.end(), cxuint(UINT_MAX));
1825        Array<size_t> sdoCounts(nodesNum);
1826        std::fill(sdoCounts.begin(), sdoCounts.end(), 0);
1827       
1828        SDOLDOCompare compare(interGraph, sdoCounts);
1829        std::set<size_t, SDOLDOCompare> nodeSet(compare);
1830        for (size_t i = 0; i < nodesNum; i++)
1831            nodeSet.insert(i);
1832       
1833        cxuint colorsNum = 0;
1834        // firstly, allocate real registers
1835        for (const auto& entry: vregIndexMap)
1836            if (entry.first.regVar == nullptr)
1837                gcMap[entry.second[0]] = colorsNum++;
1838       
1839        for (size_t colored = 0; colored < nodesNum; colored++)
1840        {
1841            size_t node = *nodeSet.begin();
1842            if (gcMap[node] != UINT_MAX)
1843                continue; // already colored
1844            size_t color = 0;
1845            std::vector<size_t> equalNodes;
1846            equalNodes.push_back(node); // only one node, if equalSet not found
1847            auto equalSetMapIt = equalSetMap.find(node);
1848            if (equalSetMapIt != equalSetMap.end())
1849                // found, get equal set from equalSetList
1850                equalNodes = equalSetList[equalSetMapIt->second];
1851           
1852            for (color = 0; color <= colorsNum; color++)
1853            {
1854                // find first usable color
1855                bool thisSame = false;
1856                for (size_t nb: interGraph[node])
1857                    if (gcMap[nb] == color)
1858                    {
1859                        thisSame = true;
1860                        break;
1861                    }
1862                if (!thisSame)
1863                    break;
1864            }
1865            if (color==colorsNum) // add new color if needed
1866            {
1867                if (colorsNum >= maxColorsNum)
1868                    throw AsmException("Too many register is needed");
1869                colorsNum++;
1870            }
1871           
1872            for (size_t nextNode: equalNodes)
1873                gcMap[nextNode] = color;
1874            // update SDO for node
1875            bool colorExists = false;
1876            for (size_t node: equalNodes)
1877            {
1878                for (size_t nb: interGraph[node])
1879                    if (gcMap[nb] == color)
1880                    {
1881                        colorExists = true;
1882                        break;
1883                    }
1884                if (!colorExists)
1885                    sdoCounts[node]++;
1886            }
1887            // update SDO for neighbors
1888            for (size_t node: equalNodes)
1889                for (size_t nb: interGraph[node])
1890                {
1891                    colorExists = false;
1892                    for (size_t nb2: interGraph[nb])
1893                        if (gcMap[nb2] == color)
1894                        {
1895                            colorExists = true;
1896                            break;
1897                        }
1898                    if (!colorExists)
1899                    {
1900                        if (gcMap[nb] == UINT_MAX)
1901                            nodeSet.erase(nb);  // before update we erase from nodeSet
1902                        sdoCounts[nb]++;
1903                        if (gcMap[nb] == UINT_MAX)
1904                            nodeSet.insert(nb); // after update, insert again
1905                    }
1906                }
1907           
1908            for (size_t nextNode: equalNodes)
1909                gcMap[nextNode] = color;
1910        }
1911    }
1912}
1913
1914void AsmRegAllocator::allocateRegisters(cxuint sectionId)
1915{
1916    // before any operation, clear all
1917    codeBlocks.clear();
1918    for (size_t i = 0; i < MAX_REGTYPES_NUM; i++)
1919    {
1920        vregIndexMaps[i].clear();
1921        interGraphs[i].clear();
1922        linearDepMaps[i].clear();
1923        equalToDepMaps[i].clear();
1924        graphColorMaps[i].clear();
1925        equalSetMaps[i].clear();
1926        equalSetLists[i].clear();
1927    }
1928    ssaReplacesMap.clear();
1929    cxuint maxRegs[MAX_REGTYPES_NUM];
1930    assembler.isaAssembler->getMaxRegistersNum(regTypesNum, maxRegs);
1931   
1932    // set up
1933    const AsmSection& section = assembler.sections[sectionId];
1934    createCodeStructure(section.codeFlow, section.content.size(), section.content.data());
1935    createSSAData(*section.usageHandler);
1936    applySSAReplaces();
1937    createInterferenceGraph(*section.usageHandler);
1938    colorInterferenceGraph();
1939}
Note: See TracBrowser for help on using the repository browser.