source: CLRX/CLRadeonExtender/trunk/amdasm/AsmRegAlloc.cpp @ 3605

Last change on this file since 3605 was 3605, checked in by matszpk, 3 years ago

CLRadeonExtender: AsmRegAlloc?: Add more complex testcase with two branches. Remove obsolete structures.

File size: 74.7 KB
Line 
1/*
2 *  CLRadeonExtender - Unofficial OpenCL Radeon Extensions Library
3 *  Copyright (C) 2014-2018 Mateusz Szpakowski
4 *
5 *  This library is free software; you can redistribute it and/or
6 *  modify it under the terms of the GNU Lesser General Public
7 *  License as published by the Free Software Foundation; either
8 *  version 2.1 of the License, or (at your option) any later version.
9 *
10 *  This library is distributed in the hope that it will be useful,
11 *  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 *  Lesser General Public License for more details.
14 *
15 *  You should have received a copy of the GNU Lesser General Public
16 *  License along with this library; if not, write to the Free Software
17 *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
18 */
19
20#include <CLRX/Config.h>
21#include <stack>
22#include <deque>
23#include <vector>
24#include <utility>
25#include <unordered_set>
26#include <map>
27#include <set>
28#include <unordered_map>
29#include <algorithm>
30#include <CLRX/utils/Utilities.h>
31#include <CLRX/utils/Containers.h>
32#include <CLRX/amdasm/Assembler.h>
33#include "AsmInternals.h"
34
35using namespace CLRX;
36
37typedef AsmRegAllocator::CodeBlock CodeBlock;
38typedef AsmRegAllocator::NextBlock NextBlock;
39typedef AsmRegAllocator::SSAInfo SSAInfo;
40
41ISAUsageHandler::ISAUsageHandler(const std::vector<cxbyte>& _content) :
42            content(_content), lastOffset(0), readOffset(0), instrStructPos(0),
43            regUsagesPos(0), regUsages2Pos(0), regVarUsagesPos(0),
44            pushedArgs(0), argPos(0), argFlags(0), isNext(false), useRegMode(false)
45{ }
46
47ISAUsageHandler::~ISAUsageHandler()
48{ }
49
50void ISAUsageHandler::rewind()
51{
52    readOffset = instrStructPos = 0;
53    regUsagesPos = regUsages2Pos = regVarUsagesPos = 0;
54    useRegMode = false;
55    pushedArgs = 0;
56    skipBytesInInstrStruct();
57}
58
59void ISAUsageHandler::skipBytesInInstrStruct()
60{
61    // do not add instruction size if usereg (usereg immediately before instr regusages)
62    if ((instrStructPos != 0 || argPos != 0) && !useRegMode)
63        readOffset += defaultInstrSize;
64    argPos = 0;
65    for (;instrStructPos < instrStruct.size() &&
66        instrStruct[instrStructPos] > 0x80; instrStructPos++)
67        readOffset += (instrStruct[instrStructPos] & 0x7f);
68    isNext = (instrStructPos < instrStruct.size());
69}
70
71void ISAUsageHandler::putSpace(size_t offset)
72{
73    if (lastOffset != offset)
74    {
75        flush(); // flush before new instruction
76        // useReg immediately before instruction regusages
77        size_t defaultInstrSize = (!useRegMode ? this->defaultInstrSize : 0);
78        if (lastOffset > offset)
79            throw AsmException("Offset before previous instruction");
80        if (!instrStruct.empty() && offset - lastOffset < defaultInstrSize)
81            throw AsmException("Offset between previous instruction");
82        size_t toSkip = !instrStruct.empty() ? 
83                offset - lastOffset - defaultInstrSize : offset;
84        while (toSkip > 0)
85        {
86            size_t skipped = std::min(toSkip, size_t(0x7f));
87            instrStruct.push_back(skipped | 0x80);
88            toSkip -= skipped;
89        }
90        lastOffset = offset;
91        argFlags = 0;
92        pushedArgs = 0;
93    } 
94}
95
96void ISAUsageHandler::pushUsage(const AsmRegVarUsage& rvu)
97{
98    if (lastOffset == rvu.offset && useRegMode)
99        flush(); // only flush if useRegMode and no change in offset
100    else // otherwise
101        putSpace(rvu.offset);
102    useRegMode = false;
103    if (rvu.regVar != nullptr)
104    {
105        argFlags |= (1U<<pushedArgs);
106        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
107            rvu.rwFlags, rvu.align });
108    }
109    else // reg usages
110        regUsages.push_back({ rvu.regField,cxbyte(rvu.rwFlags |
111                    getRwFlags(rvu.regField, rvu.rstart, rvu.rend)) });
112    pushedArgs++;
113}
114
115void ISAUsageHandler::pushUseRegUsage(const AsmRegVarUsage& rvu)
116{
117    if (lastOffset == rvu.offset && !useRegMode)
118        flush(); // only flush if useRegMode and no change in offset
119    else // otherwise
120        putSpace(rvu.offset);
121    useRegMode = true;
122    if (pushedArgs == 0 || pushedArgs == 256)
123    {
124        argFlags = 0;
125        pushedArgs = 0;
126        instrStruct.push_back(0x80); // sign of regvarusage from usereg
127        instrStruct.push_back(0);
128    }
129    if (rvu.regVar != nullptr)
130    {
131        argFlags |= (1U<<(pushedArgs & 7));
132        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
133            rvu.rwFlags, rvu.align });
134    }
135    else // reg usages
136        regUsages2.push_back({ rvu.rstart, rvu.rend, rvu.rwFlags });
137    pushedArgs++;
138    if ((pushedArgs & 7) == 0) // just flush per 8 bit
139    {
140        instrStruct.push_back(argFlags);
141        instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
142        argFlags = 0;
143    }
144}
145
146void ISAUsageHandler::flush()
147{
148    if (pushedArgs != 0)
149    {
150        if (!useRegMode)
151        {
152            // normal regvarusages
153            instrStruct.push_back(argFlags);
154            if ((argFlags & (1U<<(pushedArgs-1))) != 0)
155                regVarUsages.back().rwFlags |= 0x80;
156            else // reg usages
157                regUsages.back().rwFlags |= 0x80;
158        }
159        else
160        {
161            // use reg regvarusages
162            if ((pushedArgs & 7) != 0) //if only not pushed args remains
163                instrStruct.push_back(argFlags);
164            instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
165        }
166    }
167}
168
169AsmRegVarUsage ISAUsageHandler::nextUsage()
170{
171    if (!isNext)
172        throw AsmException("No reg usage in this code");
173    AsmRegVarUsage rvu;
174    // get regvarusage
175    bool lastRegUsage = false;
176    rvu.offset = readOffset;
177    if (!useRegMode && instrStruct[instrStructPos] == 0x80)
178    {
179        // useRegMode (begin fetching useregs)
180        useRegMode = true;
181        argPos = 0;
182        instrStructPos++;
183        // pushedArgs - numer of useregs, 0 - 256 useregs
184        pushedArgs = instrStruct[instrStructPos++];
185        argFlags = instrStruct[instrStructPos];
186    }
187    rvu.useRegMode = useRegMode; // no ArgPos
188   
189    if ((instrStruct[instrStructPos] & (1U << (argPos&7))) != 0)
190    {
191        // regvar usage
192        const AsmRegVarUsageInt& inRVU = regVarUsages[regVarUsagesPos++];
193        rvu.regVar = inRVU.regVar;
194        rvu.rstart = inRVU.rstart;
195        rvu.rend = inRVU.rend;
196        rvu.regField = inRVU.regField;
197        rvu.rwFlags = inRVU.rwFlags & ASMRVU_ACCESS_MASK;
198        rvu.align = inRVU.align;
199        if (!useRegMode)
200            lastRegUsage = ((inRVU.rwFlags&0x80) != 0);
201    }
202    else if (!useRegMode)
203    {
204        // simple reg usage
205        const AsmRegUsageInt& inRU = regUsages[regUsagesPos++];
206        rvu.regVar = nullptr;
207        const std::pair<uint16_t, uint16_t> regPair =
208                    getRegPair(inRU.regField, inRU.rwFlags);
209        rvu.rstart = regPair.first;
210        rvu.rend = regPair.second;
211        rvu.rwFlags = (inRU.rwFlags & ASMRVU_ACCESS_MASK);
212        rvu.regField = inRU.regField;
213        rvu.align = 0;
214        lastRegUsage = ((inRU.rwFlags&0x80) != 0);
215    }
216    else
217    {
218        // use reg (simple reg usage, second structure)
219        const AsmRegUsage2Int& inRU = regUsages2[regUsages2Pos++];
220        rvu.regVar = nullptr;
221        rvu.rstart = inRU.rstart;
222        rvu.rend = inRU.rend;
223        rvu.rwFlags = inRU.rwFlags;
224        rvu.regField = ASMFIELD_NONE;
225        rvu.align = 0;
226    }
227    argPos++;
228    if (useRegMode)
229    {
230        // if inside useregs
231        if (argPos == (pushedArgs&0xff))
232        {
233            instrStructPos++; // end
234            skipBytesInInstrStruct();
235            useRegMode = false;
236        }
237        else if ((argPos & 7) == 0) // fetch new flag
238        {
239            instrStructPos++;
240            argFlags = instrStruct[instrStructPos];
241        }
242    }
243    // after instr
244    if (lastRegUsage)
245    {
246        instrStructPos++;
247        skipBytesInInstrStruct();
248    }
249    return rvu;
250}
251
252AsmRegAllocator::AsmRegAllocator(Assembler& _assembler) : assembler(_assembler)
253{ }
254
255static inline bool codeBlockStartLess(const AsmRegAllocator::CodeBlock& c1,
256                  const AsmRegAllocator::CodeBlock& c2)
257{ return c1.start < c2.start; }
258
259static inline bool codeBlockEndLess(const AsmRegAllocator::CodeBlock& c1,
260                  const AsmRegAllocator::CodeBlock& c2)
261{ return c1.end < c2.end; }
262
263void AsmRegAllocator::createCodeStructure(const std::vector<AsmCodeFlowEntry>& codeFlow,
264             size_t codeSize, const cxbyte* code)
265{
266    ISAAssembler* isaAsm = assembler.isaAssembler;
267    if (codeSize == 0)
268        return;
269    std::vector<size_t> splits;
270    std::vector<size_t> codeStarts;
271    std::vector<size_t> codeEnds;
272    codeStarts.push_back(0);
273    codeEnds.push_back(codeSize);
274    for (const AsmCodeFlowEntry& entry: codeFlow)
275    {
276        size_t instrAfter = 0;
277        if (entry.type == AsmCodeFlowType::JUMP || entry.type == AsmCodeFlowType::CJUMP ||
278            entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::RETURN)
279            instrAfter = entry.offset + isaAsm->getInstructionSize(
280                        codeSize - entry.offset, code + entry.offset);
281       
282        switch(entry.type)
283        {
284            case AsmCodeFlowType::START:
285                codeStarts.push_back(entry.offset);
286                break;
287            case AsmCodeFlowType::END:
288                codeEnds.push_back(entry.offset);
289                break;
290            case AsmCodeFlowType::JUMP:
291                splits.push_back(entry.target);
292                codeEnds.push_back(instrAfter);
293                break;
294            case AsmCodeFlowType::CJUMP:
295                splits.push_back(entry.target);
296                splits.push_back(instrAfter);
297                break;
298            case AsmCodeFlowType::CALL:
299                splits.push_back(entry.target);
300                splits.push_back(instrAfter);
301                break;
302            case AsmCodeFlowType::RETURN:
303                codeEnds.push_back(instrAfter);
304                break;
305            default:
306                break;
307        }
308    }
309    std::sort(splits.begin(), splits.end());
310    splits.resize(std::unique(splits.begin(), splits.end()) - splits.begin());
311    std::sort(codeEnds.begin(), codeEnds.end());
312    codeEnds.resize(std::unique(codeEnds.begin(), codeEnds.end()) - codeEnds.begin());
313    // remove codeStarts between codeStart and codeEnd
314    size_t i = 0;
315    size_t ii = 0;
316    size_t ei = 0; // codeEnd i
317    while (i < codeStarts.size())
318    {
319        size_t end = (ei < codeEnds.size() ? codeEnds[ei] : SIZE_MAX);
320        if (ei < codeEnds.size())
321            ei++;
322        codeStarts[ii++] = codeStarts[i];
323        // skip codeStart to end
324        for (i++ ;i < codeStarts.size() && codeStarts[i] < end; i++);
325    }
326    codeStarts.resize(ii);
327    // add next codeStarts
328    auto splitIt = splits.begin();
329    for (size_t codeEnd: codeEnds)
330    {
331        auto it = std::lower_bound(splitIt, splits.end(), codeEnd);
332        if (it != splits.end())
333        {
334            codeStarts.push_back(*it);
335            splitIt = it;
336        }
337        else // if end
338            break;
339    }
340   
341    std::sort(codeStarts.begin(), codeStarts.end());
342    codeStarts.resize(std::unique(codeStarts.begin(), codeStarts.end()) -
343                codeStarts.begin());
344    // divide to blocks
345    splitIt = splits.begin();
346    for (size_t codeStart: codeStarts)
347    {
348        size_t codeEnd = *std::upper_bound(codeEnds.begin(), codeEnds.end(), codeStart);
349        splitIt = std::lower_bound(splitIt, splits.end(), codeStart);
350       
351        if (splitIt != splits.end() && *splitIt==codeStart)
352            ++splitIt; // skip split in codeStart
353       
354        for (size_t start = codeStart; start < codeEnd; )
355        {
356            size_t end = codeEnd;
357            if (splitIt != splits.end())
358            {
359                end = std::min(end, *splitIt);
360                ++splitIt;
361            }
362            codeBlocks.push_back({ start, end, { }, false, false, false });
363            start = end;
364        }
365    }
366    // force empty block at end if some jumps goes to its
367    if (!codeEnds.empty() && !codeStarts.empty() && !splits.empty() &&
368        codeStarts.back()==codeEnds.back() && codeStarts.back() == splits.back())
369        codeBlocks.push_back({ codeStarts.back(), codeStarts.back(), { },
370                             false, false, false });
371   
372    // construct flow-graph
373    for (const AsmCodeFlowEntry& entry: codeFlow)
374        if (entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::JUMP ||
375            entry.type == AsmCodeFlowType::CJUMP || entry.type == AsmCodeFlowType::RETURN)
376        {
377            std::vector<CodeBlock>::iterator it;
378            size_t instrAfter = entry.offset + isaAsm->getInstructionSize(
379                        codeSize - entry.offset, code + entry.offset);
380           
381            if (entry.type != AsmCodeFlowType::RETURN)
382                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
383                        CodeBlock{ entry.target }, codeBlockStartLess);
384            else // return
385            {
386                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
387                        CodeBlock{ 0, instrAfter }, codeBlockEndLess);
388                // if block have return
389                if (it != codeBlocks.end())
390                    it->haveEnd = it->haveReturn = true;
391                continue;
392            }
393           
394            if (it == codeBlocks.end())
395                continue; // error!
396            auto it2 = std::lower_bound(codeBlocks.begin(), codeBlocks.end(),
397                    CodeBlock{ instrAfter }, codeBlockStartLess);
398            auto curIt = it2;
399            --curIt;
400           
401            curIt->nexts.push_back({ size_t(it - codeBlocks.begin()),
402                        entry.type == AsmCodeFlowType::CALL });
403            curIt->haveCalls |= entry.type == AsmCodeFlowType::CALL;
404            if (entry.type == AsmCodeFlowType::CJUMP ||
405                 entry.type == AsmCodeFlowType::CALL)
406            {
407                curIt->haveEnd = false; // revert haveEnd if block have cond jump or call
408                if (it2 != codeBlocks.end())
409                    // add next next block
410                    curIt->nexts.push_back({ size_t(it2 - codeBlocks.begin()), false });
411            }
412            else if (entry.type == AsmCodeFlowType::JUMP)
413                curIt->haveEnd = true; // set end
414        }
415    // force haveEnd for block with cf_end
416    for (const AsmCodeFlowEntry& entry: codeFlow)
417        if (entry.type == AsmCodeFlowType::END)
418        {
419            auto it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
420                    CodeBlock{ 0, entry.offset }, codeBlockEndLess);
421            if (it != codeBlocks.end())
422                it->haveEnd = true;
423        }
424   
425    if (!codeBlocks.empty()) // always set haveEnd to last block
426        codeBlocks.back().haveEnd = true;
427   
428    // reduce nexts
429    for (CodeBlock& block: codeBlocks)
430    {
431        // first non-call nexts, for correct resolving SSA conflicts
432        std::sort(block.nexts.begin(), block.nexts.end(),
433                  [](const NextBlock& n1, const NextBlock& n2)
434                  { return int(n1.isCall)<int(n2.isCall) ||
435                      (n1.isCall == n2.isCall && n1.block < n2.block); });
436        auto it = std::unique(block.nexts.begin(), block.nexts.end(),
437                  [](const NextBlock& n1, const NextBlock& n2)
438                  { return n1.block == n2.block && n1.isCall == n2.isCall; });
439        block.nexts.resize(it - block.nexts.begin());
440    }
441}
442
443// map of last SSAId for routine, key - varid, value - last SSA ids
444typedef std::unordered_map<AsmSingleVReg, std::vector<size_t> > LastSSAIdMap;
445
446struct RoutineData
447{
448    bool processed;
449    LastSSAIdMap regVarMap;
450};
451
452struct FlowStackEntry
453{
454    size_t blockIndex;
455    size_t nextIndex;
456    LastSSAIdMap replacedMultiSSAIds;
457        // ssaIds from called routine already visited before call
458    std::unordered_map<AsmSingleVReg, size_t> prevSSAIds;
459};
460
461struct CallStackEntry
462{
463    size_t callBlock; // index
464    size_t callNextIndex; // index of call next
465};
466
467struct ResolveEntry
468{
469    size_t sourceBlock;
470    bool handled;
471};
472
473typedef AsmRegAllocator::SSAReplace SSAReplace; // first - orig ssaid, second - dest ssaid
474typedef AsmRegAllocator::SSAReplacesMap SSAReplacesMap;
475
476static inline void insertReplace(SSAReplacesMap& rmap, const AsmSingleVReg& vreg,
477              size_t origId, size_t destId)
478{
479    auto res = rmap.insert({ vreg, {} });
480    res.first->second.push_back({ origId, destId });
481}
482
483static void resolveSSAConflicts(const std::deque<FlowStackEntry>& prevFlowStack,
484        const std::stack<CallStackEntry>& prevCallStack,
485        const std::vector<bool>& prevVisited,
486        const std::unordered_map<size_t, RoutineData>& routineMap,
487        const std::vector<CodeBlock>& codeBlocks,
488        SSAReplacesMap& replacesMap)
489{
490    size_t nextBlock = prevFlowStack.back().blockIndex;
491    auto pfEnd = prevFlowStack.end();
492    --pfEnd;
493    LastSSAIdMap stackVarMap;
494    for (auto pfit = prevFlowStack.begin(); pfit != pfEnd; ++pfit)
495    {
496        const FlowStackEntry& entry = *pfit;
497        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
498        for (const auto& sentry: cblock.ssaInfoMap)
499        {
500            const SSAInfo& sinfo = sentry.second;
501            if (sinfo.ssaIdChange != 0)
502                stackVarMap[sentry.first] = { sinfo.ssaId + sinfo.ssaIdChange - 1 };
503        }
504        for (const NextBlock& next: cblock.nexts)
505            if (next.isCall)
506            {
507                const LastSSAIdMap& regVarMap =
508                        routineMap.find(next.block)->second.regVarMap;
509                for (const auto& sentry: regVarMap)
510                    stackVarMap[sentry.first] = sentry.second;
511            }
512    }
513   
514    std::stack<CallStackEntry> callStack = prevCallStack;
515    // traverse by graph from next block
516    std::deque<FlowStackEntry> flowStack;
517    flowStack.push_back({ nextBlock, 0 });
518    std::vector<bool> visited(codeBlocks.size(), false);
519   
520    std::unordered_map<AsmSingleVReg, ResolveEntry> toResolveMap;
521   
522    while (!flowStack.empty())
523    {
524        FlowStackEntry& entry = flowStack.back();
525        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
526       
527        if (entry.nextIndex == 0)
528        {
529            // process current block
530            if (!visited[entry.blockIndex])
531            {
532                visited[entry.blockIndex] = true;
533                for (auto& sentry: cblock.ssaInfoMap)
534                {
535                    const SSAInfo& sinfo = sentry.second;
536                    auto res = toResolveMap.insert({ sentry.first,
537                        { entry.blockIndex, false } });
538                   
539                    if (res.second && sinfo.readBeforeWrite)
540                    {
541                        // resolve conflict for this variable ssaId>.
542                        // only if in previous block previous SSAID is
543                        // read before all writes
544                        auto it = stackVarMap.find(sentry.first);
545                       
546                        if (it != stackVarMap.end())
547                            // found, resolve by set ssaIdLast
548                            for (size_t ssaId: it->second)
549                                if (ssaId > sinfo.ssaIdBefore)
550                                    insertReplace(replacesMap, sentry.first, ssaId,
551                                                sinfo.ssaIdBefore);
552                        res.first->second.handled = true;
553                    }
554                }
555            }
556            else
557            {
558                // back, already visited
559                flowStack.pop_back();
560                continue;
561            }
562        }
563       
564        if (!callStack.empty() &&
565            entry.blockIndex == callStack.top().callBlock &&
566            entry.nextIndex-1 == callStack.top().callNextIndex)
567            callStack.pop(); // just return from call
568       
569        if (entry.nextIndex < cblock.nexts.size() &&
570            prevVisited[cblock.nexts[entry.nextIndex].block])
571        {
572            if (cblock.nexts[entry.nextIndex].isCall)
573                callStack.push({ entry.blockIndex, entry.nextIndex });
574            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
575            entry.nextIndex++;
576        }
577        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
578                // if have any call then go to next block
579                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
580                 !cblock.haveReturn && !cblock.haveEnd &&
581                 prevVisited[entry.blockIndex+1])
582        {
583            flowStack.push_back({ entry.blockIndex+1, 0 });
584            entry.nextIndex++;
585        }
586        else // back
587        {
588            for (const auto& sentry: cblock.ssaInfoMap)
589            {
590                // mark resolved variables as not handled for further processing
591                auto it = toResolveMap.find(sentry.first);
592                if (it != toResolveMap.end() && !it->second.handled &&
593                    it->second.sourceBlock == entry.blockIndex)
594                    // remove if not handled yet
595                    toResolveMap.erase(it);
596            }
597            flowStack.pop_back();
598        }
599    }
600}
601
602static void joinRoutineData(LastSSAIdMap& dest, const LastSSAIdMap& src,
603                const std::unordered_map<AsmSingleVReg, SSAInfo>& prevSSAInfoMap)
604{
605    for (const auto& entry: src)
606    {
607        if (entry.first.regVar==nullptr)
608            continue;
609        auto res = dest.insert(entry); // find
610        if (res.second)
611            continue; // added new
612        auto ssaInfoIt = prevSSAInfoMap.find(entry.first);
613        std::vector<size_t>& destEntry = res.first->second;
614        if (ssaInfoIt == prevSSAInfoMap.end() || ssaInfoIt->second.ssaIdChange!=0)
615        {
616            if (ssaInfoIt != prevSSAInfoMap.end())
617            {
618                auto it = std::find(destEntry.begin(), destEntry.end(),
619                                    ssaInfoIt->second.ssaIdLast);
620                if (it != destEntry.end())
621                    destEntry.erase(it); // remove old way
622            }
623            // add new ways
624            for (size_t ssaId: entry.second)
625            {
626                auto it = std::find(destEntry.begin(), destEntry.end(), ssaId);
627                if (it == destEntry.end())
628                    destEntry.push_back(ssaId);
629            }
630        }
631    }
632}
633
634static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src)
635{
636    for (const auto& entry: src)
637    {
638        auto res = dest.insert(entry); // find
639        if (res.second)
640            continue; // added new
641        std::vector<size_t>& destEntry = res.first->second;
642        // add new ways
643        for (size_t ssaId: entry.second)
644        {
645            auto it = std::find(destEntry.begin(), destEntry.end(), ssaId);
646            if (it == destEntry.end())
647                destEntry.push_back(ssaId);
648        }
649    }
650}
651
652static void removeLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src)
653{
654    for (const auto& entry: src)
655    {
656        auto destIt = dest.find(entry.first); // find
657        std::vector<size_t>& destEntry = destIt->second;
658        // add new ways
659        for (size_t ssaId: entry.second)
660        {
661            auto it = std::find(destEntry.begin(), destEntry.end(), ssaId);
662            if (it != destEntry.end())
663                destEntry.erase(it);
664        }
665    }
666}
667
668void AsmRegAllocator::createSSAData(ISAUsageHandler& usageHandler)
669{
670    if (codeBlocks.empty())
671        return;
672    usageHandler.rewind();
673    auto cbit = codeBlocks.begin();
674    AsmRegVarUsage rvu;
675    if (!usageHandler.hasNext())
676        return; // do nothing if no regusages
677    rvu = usageHandler.nextUsage();
678   
679    cxuint regRanges[MAX_REGTYPES_NUM*2];
680    cxuint realRegsCount[MAX_REGTYPES_NUM];
681    std::fill(realRegsCount, realRegsCount+MAX_REGTYPES_NUM, 0);
682    size_t regTypesNum;
683    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
684   
685    while (true)
686    {
687        while (cbit != codeBlocks.end() && cbit->end <= rvu.offset)
688        {
689            cbit->usagePos = usageHandler.getReadPos();
690            ++cbit;
691        }
692        if (cbit == codeBlocks.end())
693            break;
694        // skip rvu's before codeblock
695        while (rvu.offset < cbit->start && usageHandler.hasNext())
696            rvu = usageHandler.nextUsage();
697        if (rvu.offset < cbit->start)
698            break;
699       
700        cbit->usagePos = usageHandler.getReadPos();
701        while (rvu.offset < cbit->end)
702        {
703            // process rvu
704            // only if regVar
705            for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
706            {
707                auto res = cbit->ssaInfoMap.insert(
708                        { AsmSingleVReg{ rvu.regVar, rindex }, SSAInfo() });
709               
710                SSAInfo& sinfo = res.first->second;
711                if (res.second)
712                    sinfo.firstPos = rvu.offset;
713                if ((rvu.rwFlags & ASMRVU_READ) != 0 && (sinfo.ssaIdChange == 0 ||
714                    // if first write RVU instead read RVU
715                    (sinfo.ssaIdChange == 1 && sinfo.firstPos==rvu.offset)))
716                    sinfo.readBeforeWrite = true;
717                /* change SSA id only for write-only regvars -
718                 *   read-write place can not have two different variables */
719                if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField!=ASMFIELD_NONE)
720                    sinfo.ssaIdChange++;
721                if (rvu.regVar==nullptr)
722                    sinfo.ssaIdBefore = sinfo.ssaIdFirst =
723                            sinfo.ssaId = sinfo.ssaIdLast = 0;
724            }
725            // get next rvusage
726            if (!usageHandler.hasNext())
727                break;
728            rvu = usageHandler.nextUsage();
729        }
730        ++cbit;
731    }
732   
733    std::stack<CallStackEntry> callStack;
734    std::deque<FlowStackEntry> flowStack;
735    // total SSA count
736    std::unordered_map<AsmSingleVReg, size_t> totalSSACountMap;
737    // last SSA ids in current way in code flow
738    std::unordered_map<AsmSingleVReg, size_t> curSSAIdMap;
739    // routine map - routine datas map, value - last SSA ids map
740    std::unordered_map<size_t, RoutineData> routineMap;
741    // initialize routineMap
742    for (const CodeBlock& cblock: codeBlocks)
743        for (const NextBlock& next: cblock.nexts)
744            // all forks and calls
745            routineMap[next.block].processed = false;
746   
747    LastSSAIdMap lastMultiSSAIdMap; // current SSA id from visited calls
748    std::unordered_set<size_t> selectedRoutines;
749    std::vector<bool> visited(codeBlocks.size(), false);
750    flowStack.push_back({ 0, 0 });
751   
752    while (!flowStack.empty())
753    {
754        FlowStackEntry& entry = flowStack.back();
755        CodeBlock& cblock = codeBlocks[entry.blockIndex];
756       
757        if (entry.nextIndex == 0)
758        {
759            // process current block
760            if (!visited[entry.blockIndex])
761            {
762                visited[entry.blockIndex] = true;
763               
764                for (auto& ssaEntry: cblock.ssaInfoMap)
765                {
766                    if (ssaEntry.first.regVar==nullptr)
767                    {
768                        ssaEntry.second.ssaIdChange = 0; // zeroing SSA changes
769                        continue; // no change for registers
770                    }
771                   
772                    size_t& ssaId = curSSAIdMap[ssaEntry.first];
773                    size_t& totalSSACount = totalSSACountMap[ssaEntry.first];
774                    if (totalSSACount == 0)
775                    {
776                        // first read before write at all, need change totalcount, ssaId
777                        ssaId++;
778                        totalSSACount++;
779                        entry.prevSSAIds.insert({ ssaEntry.first, ssaId });
780                    }
781                    else if (ssaId != totalSSACount) // save old ssaId
782                        entry.prevSSAIds.insert({ ssaEntry.first, ssaId });
783                    ssaEntry.second.ssaId = totalSSACount;
784                    ssaEntry.second.ssaIdFirst = ssaEntry.second.ssaIdChange!=0 ?
785                        totalSSACount : SIZE_MAX;
786                    ssaEntry.second.ssaIdBefore = ssaId-1;
787                   
788                    totalSSACount += ssaEntry.second.ssaIdChange;
789                    ssaEntry.second.ssaIdLast = ssaEntry.second.ssaIdChange!=0 ?
790                            totalSSACount-1 : SIZE_MAX;
791                    //totalSSACount = std::max(totalSSACount, ssaId);
792                    ssaId = totalSSACount;
793                }
794                // check if routineMap
795                auto rit = routineMap.find(entry.blockIndex);
796                if (rit != routineMap.end() && !rit->second.processed)
797                    selectedRoutines.insert(entry.blockIndex);
798                // add routine regvar map
799                for (const auto& ssaEntry: cblock.ssaInfoMap)
800                {
801                    const SSAInfo& sinfo = ssaEntry.second;
802                    // add to routine regvarmap if new SSA genered
803                    // just add only new SSAs inside routines
804                    if (sinfo.ssaIdChange!=0 && ssaEntry.first.regVar!=nullptr)
805                    {
806                        auto lmsit = lastMultiSSAIdMap.find(ssaEntry.first);
807                        if (lmsit != lastMultiSSAIdMap.end())
808                        {
809                            // update last SSAId inside previously called routines
810                            for (size_t routine: selectedRoutines)
811                            {
812                                LastSSAIdMap& regVarMap =
813                                    routineMap.find(routine)->second.regVarMap;
814                                   
815                                std::vector<size_t>& ssas = regVarMap[ssaEntry.first];
816                                // if many parallel ssaId from routine returns
817                                const std::vector<size_t>& ssaIdsToRemove = lmsit->second;
818                                for (size_t s: ssaIdsToRemove)
819                                {
820                                    auto ssaIt = std::find(ssas.begin(), ssas.end(), s);
821                                    if (ssaIt != ssas.end())
822                                        ssas.erase(ssaIt);
823                                    // add new
824                                    ssas.push_back(sinfo.ssaIdLast);
825                                }
826                            }
827                            // add to replaced ssaid to revert changes at pop
828                            entry.replacedMultiSSAIds.insert(*lmsit);
829                            lastMultiSSAIdMap.erase(lmsit);
830                        }
831                        else
832                            for (size_t routine: selectedRoutines)
833                            {
834                                LastSSAIdMap& regVarMap =
835                                    routineMap.find(routine)->second.regVarMap;
836                                std::vector<size_t>& ssas = regVarMap[ssaEntry.first];
837                                auto ssaIt = std::find(ssas.begin(), ssas.end(),
838                                            sinfo.ssaId-1);
839                                if (ssaIt != ssas.end()) // update this point
840                                    *ssaIt = sinfo.ssaIdLast;
841                                else if (std::find(ssas.begin(), ssas.end(),
842                                        sinfo.ssaIdLast) == ssas.end())
843                                    // otherwise add new way
844                                    ssas.push_back(sinfo.ssaIdLast);
845                            }
846                    }
847                }
848            }
849            else
850            {
851                // join routine data
852                auto rit = routineMap.find(entry.blockIndex);
853                if (rit != routineMap.end() && rit->second.processed)
854                {
855                    // just join with selected routines
856                    // if this ways to return are visited before
857                    auto fcit = flowStack.end();
858                    --fcit;
859                    --fcit; // before this codeblock
860                    const std::unordered_map<AsmSingleVReg, SSAInfo>& prevSSAInfoMap =
861                            codeBlocks[fcit->blockIndex].ssaInfoMap;
862                    for (size_t routine: selectedRoutines)
863                        joinRoutineData(routineMap.find(routine)->second.regVarMap,
864                                rit->second.regVarMap, prevSSAInfoMap);
865                }
866                else if (rit != routineMap.end())
867                    // if not already processed, just mark it
868                    rit->second.processed = true;
869                   
870                resolveSSAConflicts(flowStack, callStack, visited, routineMap, codeBlocks,
871                                    ssaReplacesMap);
872                // back, already visited
873                flowStack.pop_back();
874                continue;
875            }
876        }
877       
878        if (!callStack.empty() &&
879            entry.blockIndex == callStack.top().callBlock &&
880            entry.nextIndex-1 == callStack.top().callNextIndex)
881            callStack.pop(); // just return from call
882       
883        if (entry.nextIndex < cblock.nexts.size())
884        {
885            if (cblock.nexts[entry.nextIndex].isCall)
886                callStack.push({ entry.blockIndex, entry.nextIndex });
887           
888            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
889            entry.nextIndex++;
890        }
891        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
892                // if have any call then go to next block
893                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
894                 !cblock.haveReturn && !cblock.haveEnd)
895        {
896            if (entry.nextIndex!=0) // if back from calls (just return from calls)
897            {
898                // expand lastMultiSSAIdMap from all calls
899                for (const NextBlock& next: cblock.nexts)
900                    if (next.isCall)
901                    {
902                        auto it = routineMap.find(next.block); // must find
903                        joinLastSSAIdMap(lastMultiSSAIdMap, it->second.regVarMap);
904                    }
905            }
906            flowStack.push_back({ entry.blockIndex+1, 0 });
907            entry.nextIndex++;
908        }
909        else // back
910        {
911            // revert lastMultiSSAIdMap changes (add removed entries)
912            if (cblock.haveCalls)
913            {
914                //remove all return parallel ssaids
915                for(const NextBlock& next: cblock.nexts)
916                    if (!next.isCall)
917                    {
918                        auto it = routineMap.find(next.block); // must find
919                        removeLastSSAIdMap(lastMultiSSAIdMap, it->second.regVarMap);
920                    }
921            }
922            else // normal block (revert changes in lastMultiSSAIdMap)
923                lastMultiSSAIdMap.insert(entry.replacedMultiSSAIds.begin(),
924                                entry.replacedMultiSSAIds.end());
925            // erase at pop from selectedRoutines
926            selectedRoutines.erase(entry.blockIndex); 
927            for (const auto& ssaEntry: cblock.ssaInfoMap)
928            {
929                auto it = entry.prevSSAIds.find(ssaEntry.first);
930                if (it == entry.prevSSAIds.end())
931                    curSSAIdMap[ssaEntry.first] -= ssaEntry.second.ssaIdChange;
932                else // if found
933                    curSSAIdMap[ssaEntry.first] = it->second;
934            }
935            flowStack.pop_back();
936        }
937    }
938}
939
940void AsmRegAllocator::applySSAReplaces()
941{
942    /* prepare SSA id replaces */
943    struct MinSSAGraphNode
944    {
945        size_t minSSAId;
946        bool visited;
947        std::unordered_set<size_t> nexts;
948        MinSSAGraphNode() : minSSAId(SIZE_MAX), visited(false) { }
949    };
950    struct MinSSAGraphStackEntry
951    {
952        std::unordered_map<size_t, MinSSAGraphNode>::iterator nodeIt;
953        std::unordered_set<size_t>::const_iterator nextIt;
954        size_t minSSAId;
955    };
956   
957    for (auto& entry: ssaReplacesMap)
958    {
959        std::vector<SSAReplace>& replaces = entry.second;
960        std::sort(replaces.begin(), replaces.end());
961        replaces.resize(std::unique(replaces.begin(), replaces.end()) - replaces.begin());
962        std::vector<SSAReplace> newReplaces;
963       
964        std::unordered_map<size_t, MinSSAGraphNode> ssaGraphNodes;
965       
966        auto it = replaces.begin();
967        while (it != replaces.end())
968        {
969            auto itEnd = std::upper_bound(it, replaces.end(),
970                            std::make_pair(it->first, size_t(SIZE_MAX)));
971            {
972                MinSSAGraphNode& node = ssaGraphNodes[it->first];
973                node.minSSAId = std::min(node.minSSAId, it->second);
974                for (auto it2 = it; it2 != itEnd; ++it2)
975                    node.nexts.insert(it->second);
976            }
977            it = itEnd;
978        }
979        // propagate min value
980        std::stack<MinSSAGraphStackEntry> minSSAStack;
981        for (auto ssaGraphNodeIt = ssaGraphNodes.begin();
982                 ssaGraphNodeIt!=ssaGraphNodes.end(); )
983        {
984            minSSAStack.push({ ssaGraphNodeIt, ssaGraphNodeIt->second.nexts.begin() });
985            // traverse with minimalize SSA id
986            while (!minSSAStack.empty())
987            {
988                MinSSAGraphStackEntry& entry = minSSAStack.top();
989                MinSSAGraphNode& node = entry.nodeIt->second;
990                bool toPop = false;
991                if (entry.nextIt == node.nexts.begin())
992                {
993                    if (!node.visited)
994                        node.visited = true;
995                    else
996                        toPop = true;
997                }
998                if (!toPop && entry.nextIt != node.nexts.end())
999                {
1000                    auto nodeIt = ssaGraphNodes.find(*entry.nextIt);
1001                    if (nodeIt != ssaGraphNodes.end())
1002                    {
1003                        minSSAStack.push({ nodeIt, nodeIt->second.nexts.begin(),
1004                                nodeIt->second.minSSAId });
1005                    }
1006                    ++entry.nextIt;
1007                }
1008                else
1009                {
1010                    node.minSSAId = std::min(node.minSSAId, entry.minSSAId);
1011                    minSSAStack.pop();
1012                    if (!minSSAStack.empty())
1013                    {
1014                        MinSSAGraphStackEntry& pentry = minSSAStack.top();
1015                        pentry.minSSAId = std::min(pentry.minSSAId, node.minSSAId);
1016                    }
1017                }
1018            }
1019            // skip visited nodes
1020            while (ssaGraphNodeIt != ssaGraphNodes.end())
1021                if (!ssaGraphNodeIt->second.visited)
1022                    break;
1023        }
1024       
1025        for (const auto& entry: ssaGraphNodes)
1026            newReplaces.push_back({ entry.first, entry.second.minSSAId });
1027       
1028        std::sort(newReplaces.begin(), newReplaces.end());
1029        entry.second = newReplaces;
1030    }
1031   
1032    /* apply SSA id replaces */
1033    for (CodeBlock& cblock: codeBlocks)
1034        for (auto& ssaEntry: cblock.ssaInfoMap)
1035        {
1036            auto it = ssaReplacesMap.find(ssaEntry.first);
1037            if (it == ssaReplacesMap.end())
1038                continue;
1039            SSAInfo& sinfo = ssaEntry.second;
1040            std::vector<SSAReplace>& replaces = it->second;
1041            if (sinfo.readBeforeWrite)
1042            {
1043                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
1044                                 ssaEntry.second.ssaIdBefore);
1045                if (rit != replaces.end())
1046                    sinfo.ssaIdBefore = rit->second; // replace
1047            }
1048            if (sinfo.ssaIdFirst != SIZE_MAX)
1049            {
1050                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
1051                                 ssaEntry.second.ssaIdFirst);
1052                if (rit != replaces.end())
1053                    sinfo.ssaIdFirst = rit->second; // replace
1054            }
1055            if (sinfo.ssaIdLast != SIZE_MAX)
1056            {
1057                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
1058                                 ssaEntry.second.ssaIdLast);
1059                if (rit != replaces.end())
1060                    sinfo.ssaIdLast = rit->second; // replace
1061            }
1062        }
1063}
1064
1065struct Liveness
1066{
1067    std::map<size_t, size_t> l;
1068   
1069    Liveness() { }
1070   
1071    void clear()
1072    { l.clear(); }
1073   
1074    void expand(size_t k)
1075    {
1076        if (l.empty())
1077            l.insert(std::make_pair(k, k+1));
1078        else
1079        {
1080            auto it = l.end();
1081            --it;
1082            it->second = k+1;
1083        }
1084    }
1085    void newRegion(size_t k)
1086    {
1087        if (l.empty())
1088            l.insert(std::make_pair(k, k));
1089        else
1090        {
1091            auto it = l.end();
1092            --it;
1093            if (it->first != k && it->second != k)
1094                l.insert(std::make_pair(k, k));
1095        }
1096    }
1097   
1098    void insert(size_t k, size_t k2)
1099    {
1100        auto it1 = l.lower_bound(k);
1101        if (it1!=l.begin() && (it1==l.end() || it1->first>k))
1102            --it1;
1103        if (it1->second < k)
1104            ++it1;
1105        auto it2 = l.lower_bound(k2);
1106        if (it1!=it2)
1107        {
1108            k = std::min(k, it1->first);
1109            k2 = std::max(k2, (--it2)->second);
1110            l.erase(it1, it2);
1111        }
1112        l.insert(std::make_pair(k, k2));
1113    }
1114   
1115    bool contain(size_t t) const
1116    {
1117        auto it = l.lower_bound(t);
1118        if (it==l.begin() && it->first>t)
1119            return false;
1120        if (it==l.end() || it->first>t)
1121            --it;
1122        return it->first<=t && t<it->second;
1123    }
1124   
1125    bool common(const Liveness& b) const
1126    {
1127        auto i = l.begin();
1128        auto j = b.l.begin();
1129        for (; i != l.end() && j != b.l.end();)
1130        {
1131            if (i->first==i->second)
1132            {
1133                ++i;
1134                continue;
1135            }
1136            if (j->first==j->second)
1137            {
1138                ++j;
1139                continue;
1140            }
1141            if (i->first<j->first)
1142            {
1143                if (i->second > j->first)
1144                    return true; // common place
1145                ++i;
1146            }
1147            else
1148            {
1149                if (i->first < j->second)
1150                    return true; // common place
1151                ++j;
1152            }
1153        }
1154        return false;
1155    }
1156};
1157
1158typedef AsmRegAllocator::VarIndexMap VarIndexMap;
1159
1160static cxuint getRegType(size_t regTypesNum, const cxuint* regRanges,
1161            const AsmSingleVReg& svreg)
1162{
1163    cxuint regType; // regtype
1164    if (svreg.regVar!=nullptr)
1165        regType = svreg.regVar->type;
1166    else
1167        for (regType = 0; regType < regTypesNum; regType++)
1168            if (svreg.index >= regRanges[regType<<1] &&
1169                svreg.index < regRanges[(regType<<1)+1])
1170                break;
1171    return regType;
1172}
1173
1174static Liveness& getLiveness(const AsmSingleVReg& svreg, size_t ssaIdIdx,
1175        const AsmRegAllocator::SSAInfo& ssaInfo, std::vector<Liveness>* livenesses,
1176        const VarIndexMap* vregIndexMaps, size_t regTypesNum, const cxuint* regRanges)
1177{
1178    size_t ssaId;
1179    if (svreg.regVar==nullptr)
1180        ssaId = 0;
1181    else if (ssaIdIdx==0)
1182        ssaId = ssaInfo.ssaIdBefore;
1183    else if (ssaIdIdx==1)
1184        ssaId = ssaInfo.ssaIdFirst;
1185    else if (ssaIdIdx<ssaInfo.ssaIdChange)
1186        ssaId = ssaInfo.ssaId + ssaIdIdx-1;
1187    else // last
1188        ssaId = ssaInfo.ssaIdLast;
1189   
1190    cxuint regType = getRegType(regTypesNum, regRanges, svreg); // regtype
1191    const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
1192    const std::vector<size_t>& ssaIdIndices =
1193                vregIndexMap.find(svreg)->second;
1194    return livenesses[regType][ssaIdIndices[ssaId]];
1195}
1196
1197typedef std::deque<FlowStackEntry>::const_iterator FlowStackCIter;
1198
1199struct VRegLastPos
1200{
1201    size_t ssaId; // last SSA id
1202    std::vector<FlowStackCIter> blockChain; // subsequent blocks that changes SSAId
1203};
1204
1205/* TODO: add handling calls
1206 * handle many start points in this code (for example many kernel's in same code)
1207 * replace sets by vector, and sort and remove same values on demand
1208 */
1209
1210typedef std::unordered_map<AsmSingleVReg, VRegLastPos> LastVRegMap;
1211
1212static void putCrossBlockLivenesses(const std::deque<FlowStackEntry>& flowStack,
1213        const std::vector<CodeBlock>& codeBlocks,
1214        const Array<size_t>& codeBlockLiveTimes, const LastVRegMap& lastVRegMap,
1215        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
1216        size_t regTypesNum, const cxuint* regRanges)
1217{
1218    const CodeBlock& cblock = codeBlocks[flowStack.back().blockIndex];
1219    for (const auto& entry: cblock.ssaInfoMap)
1220        if (entry.second.readBeforeWrite)
1221        {
1222            // find last
1223            auto lvrit = lastVRegMap.find(entry.first);
1224            if (lvrit == lastVRegMap.end())
1225                continue; // not found
1226            const VRegLastPos& lastPos = lvrit->second;
1227            FlowStackCIter flit = lastPos.blockChain.back();
1228            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
1229            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
1230            const std::vector<size_t>& ssaIdIndices =
1231                        vregIndexMap.find(entry.first)->second;
1232            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
1233            FlowStackCIter flitEnd = flowStack.end();
1234            --flitEnd; // before last element
1235            // insert live time to last seen position
1236            const CodeBlock& lastBlk = codeBlocks[flit->blockIndex];
1237            size_t toLiveCvt = codeBlockLiveTimes[flit->blockIndex] - lastBlk.start;
1238            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
1239                    toLiveCvt + lastBlk.end);
1240            for (++flit; flit != flitEnd; ++flit)
1241            {
1242                const CodeBlock& cblock = codeBlocks[flit->blockIndex];
1243                size_t blockLiveTime = codeBlockLiveTimes[flit->blockIndex];
1244                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
1245            }
1246        }
1247}
1248
1249static void putCrossBlockForLoop(const std::deque<FlowStackEntry>& flowStack,
1250        const std::vector<CodeBlock>& codeBlocks,
1251        const Array<size_t>& codeBlockLiveTimes,
1252        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
1253        size_t regTypesNum, const cxuint* regRanges)
1254{
1255    auto flitStart = flowStack.end();
1256    --flitStart;
1257    size_t curBlock = flitStart->blockIndex;
1258    // find step in way
1259    while (flitStart->blockIndex != curBlock) --flitStart;
1260    auto flitEnd = flowStack.end();
1261    --flitEnd;
1262    std::unordered_map<AsmSingleVReg, std::pair<size_t, size_t> > varMap;
1263   
1264    // collect var to check
1265    size_t flowPos = 0;
1266    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
1267    {
1268        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
1269        for (const auto& entry: cblock.ssaInfoMap)
1270        {
1271            const SSAInfo& sinfo = entry.second;
1272            size_t lastSSAId = (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
1273                    (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
1274            varMap[entry.first] = { lastSSAId, flowPos };
1275        }
1276    }
1277    // find connections
1278    flowPos = 0;
1279    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
1280    {
1281        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
1282        for (const auto& entry: cblock.ssaInfoMap)
1283        {
1284            const SSAInfo& sinfo = entry.second;
1285            auto varMapIt = varMap.find(entry.first);
1286            if (!sinfo.readBeforeWrite || varMapIt == varMap.end() ||
1287                flowPos > varMapIt->second.second ||
1288                sinfo.ssaIdBefore != varMapIt->second.first)
1289                continue;
1290            // just connect
1291           
1292            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
1293            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
1294            const std::vector<size_t>& ssaIdIndices =
1295                        vregIndexMap.find(entry.first)->second;
1296            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
1297           
1298            if (flowPos == varMapIt->second.second)
1299            {
1300                // fill whole loop
1301                for (auto flit2 = flitStart; flit != flitEnd; ++flit)
1302                {
1303                    const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
1304                    size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
1305                    lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
1306                }
1307                continue;
1308            }
1309           
1310            size_t flowPos2 = 0;
1311            for (auto flit2 = flitStart; flowPos2 < flowPos; ++flit2, flowPos++)
1312            {
1313                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
1314                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
1315                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
1316            }
1317            // insert liveness for last block in loop of last SSAId (prev round)
1318            auto flit2 = flitStart + flowPos;
1319            const CodeBlock& firstBlk = codeBlocks[flit2->blockIndex];
1320            size_t toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - firstBlk.start;
1321            lv.insert(codeBlockLiveTimes[flit2->blockIndex],
1322                    firstBlk.ssaInfoMap.find(entry.first)->second.firstPos + toLiveCvt);
1323            // insert liveness for first block in loop of last SSAId
1324            flit2 = flitStart + (varMapIt->second.second+1);
1325            const CodeBlock& lastBlk = codeBlocks[flit2->blockIndex];
1326            toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - lastBlk.start;
1327            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
1328                    toLiveCvt + lastBlk.end);
1329            // fill up loop end
1330            for (++flit2; flit2 != flitEnd; ++flit2)
1331            {
1332                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
1333                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
1334                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
1335            }
1336        }
1337    }
1338}
1339
1340struct LiveBlock
1341{
1342    size_t start;
1343    size_t end;
1344    size_t vidx;
1345   
1346    bool operator==(const LiveBlock& b) const
1347    { return start==b.start && end==b.end && vidx==b.vidx; }
1348   
1349    bool operator<(const LiveBlock& b) const
1350    { return start<b.start || (start==b.start &&
1351            (end<b.end || (end==b.end && vidx<b.vidx))); }
1352};
1353
1354typedef AsmRegAllocator::LinearDep LinearDep;
1355typedef AsmRegAllocator::EqualToDep EqualToDep;
1356typedef std::unordered_map<size_t, LinearDep> LinearDepMap;
1357typedef std::unordered_map<size_t, EqualToDep> EqualToDepMap;
1358
1359static void addUsageDeps(const cxbyte* ldeps, const cxbyte* edeps, cxuint rvusNum,
1360            const AsmRegVarUsage* rvus, LinearDepMap* ldepsOut,
1361            EqualToDepMap* edepsOut, const VarIndexMap* vregIndexMaps,
1362            std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap,
1363            size_t regTypesNum, const cxuint* regRanges)
1364{
1365    // add linear deps
1366    cxuint count = ldeps[0];
1367    cxuint pos = 1;
1368    cxbyte rvuAdded = 0;
1369    for (cxuint i = 0; i < count; i++)
1370    {
1371        cxuint ccount = ldeps[pos++];
1372        std::vector<size_t> vidxes;
1373        cxuint regType = UINT_MAX;
1374        cxbyte align = rvus[ldeps[pos]].align;
1375        for (cxuint j = 0; j < ccount; j++)
1376        {
1377            rvuAdded |= 1U<<ldeps[pos];
1378            const AsmRegVarUsage& rvu = rvus[ldeps[pos++]];
1379            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
1380            {
1381                AsmSingleVReg svreg = {rvu.regVar, k};
1382                auto sit = ssaIdIdxMap.find(svreg);
1383                if (regType==UINT_MAX)
1384                    regType = getRegType(regTypesNum, regRanges, svreg);
1385                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
1386                const std::vector<size_t>& ssaIdIndices =
1387                            vregIndexMap.find(svreg)->second;
1388                // push variable index
1389                vidxes.push_back(ssaIdIndices[sit->second]);
1390            }
1391        }
1392        ldepsOut[regType][vidxes[0]].align = align;
1393        for (size_t k = 1; k < vidxes.size(); k++)
1394        {
1395            ldepsOut[regType][vidxes[k-1]].nextVidxes.push_back(vidxes[k]);
1396            ldepsOut[regType][vidxes[k]].prevVidxes.push_back(vidxes[k-1]);
1397        }
1398    }
1399    // add single arg linear dependencies
1400    for (cxuint i = 0; i < rvusNum; i++)
1401        if ((rvuAdded & (1U<<i)) == 0 && rvus[i].rstart+1<rvus[i].rend)
1402        {
1403            const AsmRegVarUsage& rvu = rvus[i];
1404            std::vector<size_t> vidxes;
1405            cxuint regType = UINT_MAX;
1406            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
1407            {
1408                AsmSingleVReg svreg = {rvu.regVar, k};
1409                auto sit = ssaIdIdxMap.find(svreg);
1410                if (regType==UINT_MAX)
1411                    regType = getRegType(regTypesNum, regRanges, svreg);
1412                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
1413                const std::vector<size_t>& ssaIdIndices =
1414                            vregIndexMap.find(svreg)->second;
1415                // push variable index
1416                vidxes.push_back(ssaIdIndices[sit->second]);
1417            }
1418            for (size_t j = 1; j < vidxes.size(); j++)
1419            {
1420                ldepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
1421                ldepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
1422            }
1423        }
1424       
1425    /* equalTo dependencies */
1426    count = edeps[0];
1427    pos = 1;
1428    for (cxuint i = 0; i < count; i++)
1429    {
1430        cxuint ccount = edeps[pos++];
1431        std::vector<size_t> vidxes;
1432        cxuint regType = UINT_MAX;
1433        for (cxuint j = 0; j < ccount; j++)
1434        {
1435            const AsmRegVarUsage& rvu = rvus[edeps[pos++]];
1436            // only one register should be set for equalTo depencencies
1437            // other registers in range will be resolved by linear dependencies
1438            AsmSingleVReg svreg = {rvu.regVar, rvu.rstart};
1439            auto sit = ssaIdIdxMap.find(svreg);
1440            if (regType==UINT_MAX)
1441                regType = getRegType(regTypesNum, regRanges, svreg);
1442            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
1443            const std::vector<size_t>& ssaIdIndices =
1444                        vregIndexMap.find(svreg)->second;
1445            // push variable index
1446            vidxes.push_back(ssaIdIndices[sit->second]);
1447        }
1448        for (size_t j = 1; j < vidxes.size(); j++)
1449        {
1450            edepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
1451            edepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
1452        }
1453    }
1454}
1455
1456typedef std::unordered_map<size_t, EqualToDep>::const_iterator EqualToDepMapCIter;
1457
1458struct EqualStackEntry
1459{
1460    EqualToDepMapCIter etoDepIt;
1461    size_t nextIdx; // over nextVidxes size, then prevVidxes[nextIdx-nextVidxes.size()]
1462};
1463
1464void AsmRegAllocator::createInterferenceGraph(ISAUsageHandler& usageHandler)
1465{
1466    // construct var index maps
1467    size_t graphVregsCounts[MAX_REGTYPES_NUM];
1468    std::fill(graphVregsCounts, graphVregsCounts+regTypesNum, 0);
1469    cxuint regRanges[MAX_REGTYPES_NUM*2];
1470    size_t regTypesNum;
1471    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
1472   
1473    for (const CodeBlock& cblock: codeBlocks)
1474        for (const auto& entry: cblock.ssaInfoMap)
1475        {
1476            const SSAInfo& sinfo = entry.second;
1477            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
1478            VarIndexMap& vregIndices = vregIndexMaps[regType];
1479            size_t& graphVregsCount = graphVregsCounts[regType];
1480            std::vector<size_t>& ssaIdIndices = vregIndices[entry.first];
1481            size_t ssaIdCount = 0;
1482            if (sinfo.readBeforeWrite)
1483                ssaIdCount = sinfo.ssaIdBefore+1;
1484            if (sinfo.ssaIdChange!=0)
1485            {
1486                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdLast+1);
1487                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdFirst+1);
1488            }
1489            if (ssaIdIndices.size() < ssaIdCount)
1490                ssaIdIndices.resize(ssaIdCount, SIZE_MAX);
1491           
1492            if (sinfo.readBeforeWrite)
1493                ssaIdIndices[sinfo.ssaIdBefore] = graphVregsCount++;
1494            if (sinfo.ssaIdChange!=0)
1495            {
1496                // fill up ssaIdIndices (with graph Ids)
1497                ssaIdIndices[sinfo.ssaIdFirst] = graphVregsCount++;
1498                for (size_t ssaId = sinfo.ssaId+1;
1499                        ssaId < sinfo.ssaId+sinfo.ssaIdChange-1; ssaId++)
1500                    ssaIdIndices[ssaId] = graphVregsCount++;
1501                ssaIdIndices[sinfo.ssaIdLast] = graphVregsCount++;
1502            }
1503        }
1504   
1505    // construct vreg liveness
1506    std::deque<FlowStackEntry> flowStack;
1507    std::vector<bool> visited(codeBlocks.size(), false);
1508    // hold last vreg ssaId and position
1509    LastVRegMap lastVRegMap;
1510    // hold start live time position for every code block
1511    Array<size_t> codeBlockLiveTimes(codeBlocks.size());
1512    std::unordered_set<size_t> blockInWay;
1513   
1514    std::vector<Liveness> livenesses[MAX_REGTYPES_NUM];
1515   
1516    for (size_t i = 0; i < regTypesNum; i++)
1517        livenesses[i].resize(graphVregsCounts[i]);
1518   
1519    size_t curLiveTime = 0;
1520   
1521    while (!flowStack.empty())
1522    {
1523        FlowStackEntry& entry = flowStack.back();
1524        CodeBlock& cblock = codeBlocks[entry.blockIndex];
1525       
1526        if (entry.nextIndex == 0)
1527        {
1528            // process current block
1529            if (!blockInWay.insert(entry.blockIndex).second)
1530            {
1531                // if loop
1532                putCrossBlockForLoop(flowStack, codeBlocks, codeBlockLiveTimes, 
1533                        livenesses, vregIndexMaps, regTypesNum, regRanges);
1534                flowStack.pop_back();
1535                continue;
1536            }
1537           
1538            codeBlockLiveTimes[entry.blockIndex] = curLiveTime;
1539            putCrossBlockLivenesses(flowStack, codeBlocks, codeBlockLiveTimes, 
1540                    lastVRegMap, livenesses, vregIndexMaps, regTypesNum, regRanges);
1541           
1542            for (const auto& sentry: cblock.ssaInfoMap)
1543            {
1544                const SSAInfo& sinfo = sentry.second;
1545                // update
1546                size_t lastSSAId =  (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
1547                        (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
1548                FlowStackCIter flit = flowStack.end();
1549                --flit; // to last position
1550                auto res = lastVRegMap.insert({ sentry.first, 
1551                            { lastSSAId, { flit } } });
1552                if (!res.second) // if not first seen, just update
1553                {
1554                    // update last
1555                    res.first->second.ssaId = lastSSAId;
1556                    res.first->second.blockChain.push_back(flit);
1557                }
1558            }
1559           
1560            size_t curBlockLiveEnd = cblock.end - cblock.start + curLiveTime;
1561            if (!visited[entry.blockIndex])
1562            {
1563                visited[entry.blockIndex] = true;
1564                std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap;
1565                AsmRegVarUsage instrRVUs[8];
1566                cxuint instrRVUsCount = 0;
1567               
1568                size_t oldOffset = cblock.usagePos.readOffset;
1569                std::vector<AsmSingleVReg> readSVRegs;
1570                std::vector<AsmSingleVReg> writtenSVRegs;
1571               
1572                usageHandler.setReadPos(cblock.usagePos);
1573                // register in liveness
1574                while (true)
1575                {
1576                    AsmRegVarUsage rvu = { 0U, nullptr, 0U, 0U };
1577                    size_t liveTimeNext = curBlockLiveEnd;
1578                    if (usageHandler.hasNext())
1579                    {
1580                        rvu = usageHandler.nextUsage();
1581                        if (rvu.offset >= cblock.end)
1582                            break;
1583                        if (!rvu.useRegMode)
1584                            instrRVUs[instrRVUsCount++] = rvu;
1585                        liveTimeNext = std::min(rvu.offset, cblock.end) -
1586                                cblock.start + curLiveTime;
1587                    }
1588                    size_t liveTime = oldOffset - cblock.start + curLiveTime;
1589                    if (!usageHandler.hasNext() || rvu.offset >= oldOffset)
1590                    {
1591                        // apply to liveness
1592                        for (AsmSingleVReg svreg: readSVRegs)
1593                        {
1594                            Liveness& lv = getLiveness(svreg, ssaIdIdxMap[svreg],
1595                                    cblock.ssaInfoMap.find(svreg)->second,
1596                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
1597                            if (!lv.l.empty() && (--lv.l.end())->first < curLiveTime)
1598                                lv.newRegion(curLiveTime); // begin region from this block
1599                            lv.expand(liveTime);
1600                        }
1601                        for (AsmSingleVReg svreg: writtenSVRegs)
1602                        {
1603                            size_t& ssaIdIdx = ssaIdIdxMap[svreg];
1604                            ssaIdIdx++;
1605                            SSAInfo& sinfo = cblock.ssaInfoMap.find(svreg)->second;
1606                            Liveness& lv = getLiveness(svreg, ssaIdIdx, sinfo,
1607                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
1608                            if (liveTimeNext != curBlockLiveEnd)
1609                                // because live after this instr
1610                                lv.newRegion(liveTimeNext);
1611                            sinfo.lastPos = liveTimeNext - curLiveTime + cblock.start;
1612                        }
1613                        // get linear deps and equal to
1614                        cxbyte lDeps[16];
1615                        cxbyte eDeps[16];
1616                        usageHandler.getUsageDependencies(instrRVUsCount, instrRVUs,
1617                                        lDeps, eDeps);
1618                       
1619                        addUsageDeps(lDeps, eDeps, instrRVUsCount, instrRVUs,
1620                                linearDepMaps, equalToDepMaps, vregIndexMaps, ssaIdIdxMap,
1621                                regTypesNum, regRanges);
1622                       
1623                        readSVRegs.clear();
1624                        writtenSVRegs.clear();
1625                        if (!usageHandler.hasNext())
1626                            break; // end
1627                        oldOffset = rvu.offset;
1628                        instrRVUsCount = 0;
1629                    }
1630                    if (rvu.offset >= cblock.end)
1631                        break;
1632                   
1633                    for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
1634                    {
1635                        // per register/singlvreg
1636                        AsmSingleVReg svreg{ rvu.regVar, rindex };
1637                        if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField == ASMFIELD_NONE)
1638                            writtenSVRegs.push_back(svreg);
1639                        else // read or treat as reading // expand previous region
1640                            readSVRegs.push_back(svreg);
1641                    }
1642                }
1643                curLiveTime += cblock.end-cblock.start;
1644            }
1645            else
1646            {
1647                // back, already visited
1648                flowStack.pop_back();
1649                continue;
1650            }
1651        }
1652        if (entry.nextIndex < cblock.nexts.size())
1653        {
1654            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1655            entry.nextIndex++;
1656        }
1657        else if (entry.nextIndex==0 && cblock.nexts.empty() && !cblock.haveEnd)
1658        {
1659            flowStack.push_back({ entry.blockIndex+1, 0 });
1660            entry.nextIndex++;
1661        }
1662        else // back
1663        {
1664            // revert lastSSAIdMap
1665            blockInWay.erase(entry.blockIndex);
1666            flowStack.pop_back();
1667            if (!flowStack.empty())
1668            {
1669                for (const auto& sentry: cblock.ssaInfoMap)
1670                {
1671                    auto lvrit = lastVRegMap.find(sentry.first);
1672                    if (lvrit != lastVRegMap.end())
1673                    {
1674                        VRegLastPos& lastPos = lvrit->second;
1675                        lastPos.ssaId = sentry.second.ssaIdBefore;
1676                        lastPos.blockChain.pop_back();
1677                        if (lastPos.blockChain.empty()) // just remove from lastVRegs
1678                            lastVRegMap.erase(lvrit);
1679                    }
1680                }
1681            }
1682        }
1683    }
1684   
1685    /// construct liveBlockMaps
1686    std::set<LiveBlock> liveBlockMaps[MAX_REGTYPES_NUM];
1687    for (size_t regType = 0; regType < regTypesNum; regType++)
1688    {
1689        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
1690        std::vector<Liveness>& liveness = livenesses[regType];
1691        for (size_t li = 0; li < liveness.size(); li++)
1692        {
1693            Liveness& lv = liveness[li];
1694            for (const std::pair<size_t, size_t>& blk: lv.l)
1695                if (blk.first != blk.second)
1696                    liveBlockMap.insert({ blk.first, blk.second, li });
1697            lv.clear();
1698        }
1699        liveness.clear();
1700    }
1701   
1702    // create interference graphs
1703    for (size_t regType = 0; regType < regTypesNum; regType++)
1704    {
1705        InterGraph& interGraph = interGraphs[regType];
1706        interGraph.resize(graphVregsCounts[regType]);
1707        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
1708       
1709        auto lit = liveBlockMap.begin();
1710        size_t rangeStart = 0;
1711        if (lit != liveBlockMap.end())
1712            rangeStart = lit->start;
1713        while (lit != liveBlockMap.end())
1714        {
1715            const size_t blkStart = lit->start;
1716            const size_t blkEnd = lit->end;
1717            size_t rangeEnd = blkEnd;
1718            auto liStart = liveBlockMap.lower_bound({ rangeStart, 0, 0 });
1719            auto liEnd = liveBlockMap.lower_bound({ rangeEnd, 0, 0 });
1720            // collect from this range, variable indices
1721            std::set<size_t> varIndices;
1722            for (auto lit2 = liStart; lit2 != liEnd; ++lit2)
1723                varIndices.insert(lit2->vidx);
1724            // push to intergraph as full subgGraph
1725            for (auto vit = varIndices.begin(); vit != varIndices.end(); ++vit)
1726                for (auto vit2 = varIndices.begin(); vit2 != varIndices.end(); ++vit2)
1727                    if (vit != vit2)
1728                        interGraph[*vit].insert(*vit2);
1729            // go to next live blocks
1730            rangeStart = rangeEnd;
1731            for (; lit != liveBlockMap.end(); ++lit)
1732                if (lit->start != blkStart && lit->end != blkEnd)
1733                    break;
1734            if (lit == liveBlockMap.end())
1735                break; //
1736            rangeStart = std::max(rangeStart, lit->start);
1737        }
1738    }
1739   
1740    /*
1741     * resolve equalSets
1742     */
1743    for (cxuint regType = 0; regType < regTypesNum; regType++)
1744    {
1745        InterGraph& interGraph = interGraphs[regType];
1746        const size_t nodesNum = interGraph.size();
1747        const std::unordered_map<size_t, EqualToDep>& etoDepMap = equalToDepMaps[regType];
1748        std::vector<bool> visited(nodesNum, false);
1749        std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
1750       
1751        for (size_t v = 0; v < nodesNum;)
1752        {
1753            auto it = etoDepMap.find(v);
1754            if (it == etoDepMap.end())
1755            {
1756                // is not regvar in equalTo dependencies
1757                v++;
1758                continue;
1759            }
1760           
1761            std::stack<EqualStackEntry> etoStack;
1762            etoStack.push(EqualStackEntry{ it, 0 });
1763           
1764            std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
1765            const size_t equalSetIndex = equalSetList.size();
1766            equalSetList.push_back(std::vector<size_t>());
1767            std::vector<size_t>& equalSet = equalSetList.back();
1768           
1769            // traverse by this
1770            while (!etoStack.empty())
1771            {
1772                EqualStackEntry& entry = etoStack.top();
1773                size_t vidx = entry.etoDepIt->first; // node index, vreg index
1774                const EqualToDep& eToDep = entry.etoDepIt->second;
1775                if (entry.nextIdx == 0)
1776                {
1777                    if (!visited[vidx])
1778                    {
1779                        // push to this equalSet
1780                        equalSetMap.insert({ vidx, equalSetIndex });
1781                        equalSet.push_back(vidx);
1782                    }
1783                    else
1784                    {
1785                        // already visited
1786                        etoStack.pop();
1787                        continue;
1788                    }
1789                }
1790               
1791                if (entry.nextIdx < eToDep.nextVidxes.size())
1792                {
1793                    auto nextIt = etoDepMap.find(eToDep.nextVidxes[entry.nextIdx]);
1794                    etoStack.push(EqualStackEntry{ nextIt, 0 });
1795                    entry.nextIdx++;
1796                }
1797                else if (entry.nextIdx < eToDep.nextVidxes.size()+eToDep.prevVidxes.size())
1798                {
1799                    auto nextIt = etoDepMap.find(eToDep.prevVidxes[
1800                                entry.nextIdx - eToDep.nextVidxes.size()]);
1801                    etoStack.push(EqualStackEntry{ nextIt, 0 });
1802                    entry.nextIdx++;
1803                }
1804                else
1805                    etoStack.pop();
1806            }
1807           
1808            // to first already added node (var)
1809            while (v < nodesNum && !visited[v]) v++;
1810        }
1811    }
1812}
1813
1814typedef AsmRegAllocator::InterGraph InterGraph;
1815
1816struct CLRX_INTERNAL SDOLDOCompare
1817{
1818    const InterGraph& interGraph;
1819    const Array<size_t>& sdoCounts;
1820   
1821    SDOLDOCompare(const InterGraph& _interGraph, const Array<size_t>&_sdoCounts)
1822        : interGraph(_interGraph), sdoCounts(_sdoCounts)
1823    { }
1824   
1825    bool operator()(size_t a, size_t b) const
1826    {
1827        if (sdoCounts[a] > sdoCounts[b])
1828            return true;
1829        return interGraph[a].size() > interGraph[b].size();
1830    }
1831};
1832
1833/* algorithm to allocate regranges:
1834 * from smallest regranges to greatest regranges:
1835 *   choosing free register: from smallest free regranges
1836 *      to greatest regranges:
1837 *         in this same regrange:
1838 *               try to find free regs in regranges
1839 *               try to link free ends of two distinct regranges
1840 */
1841
1842void AsmRegAllocator::colorInterferenceGraph()
1843{
1844    const GPUArchitecture arch = getGPUArchitectureFromDeviceType(
1845                    assembler.deviceType);
1846   
1847    for (size_t regType = 0; regType < regTypesNum; regType++)
1848    {
1849        const size_t maxColorsNum = getGPUMaxRegistersNum(arch, regType);
1850        InterGraph& interGraph = interGraphs[regType];
1851        const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
1852        Array<cxuint>& gcMap = graphColorMaps[regType];
1853        const std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
1854        const std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
1855       
1856        const size_t nodesNum = interGraph.size();
1857        gcMap.resize(nodesNum);
1858        std::fill(gcMap.begin(), gcMap.end(), cxuint(UINT_MAX));
1859        Array<size_t> sdoCounts(nodesNum);
1860        std::fill(sdoCounts.begin(), sdoCounts.end(), 0);
1861       
1862        SDOLDOCompare compare(interGraph, sdoCounts);
1863        std::set<size_t, SDOLDOCompare> nodeSet(compare);
1864        for (size_t i = 0; i < nodesNum; i++)
1865            nodeSet.insert(i);
1866       
1867        cxuint colorsNum = 0;
1868        // firstly, allocate real registers
1869        for (const auto& entry: vregIndexMap)
1870            if (entry.first.regVar == nullptr)
1871                gcMap[entry.second[0]] = colorsNum++;
1872       
1873        for (size_t colored = 0; colored < nodesNum; colored++)
1874        {
1875            size_t node = *nodeSet.begin();
1876            if (gcMap[node] != UINT_MAX)
1877                continue; // already colored
1878            size_t color = 0;
1879            std::vector<size_t> equalNodes;
1880            equalNodes.push_back(node); // only one node, if equalSet not found
1881            auto equalSetMapIt = equalSetMap.find(node);
1882            if (equalSetMapIt != equalSetMap.end())
1883                // found, get equal set from equalSetList
1884                equalNodes = equalSetList[equalSetMapIt->second];
1885           
1886            for (color = 0; color <= colorsNum; color++)
1887            {
1888                // find first usable color
1889                bool thisSame = false;
1890                for (size_t nb: interGraph[node])
1891                    if (gcMap[nb] == color)
1892                    {
1893                        thisSame = true;
1894                        break;
1895                    }
1896                if (!thisSame)
1897                    break;
1898            }
1899            if (color==colorsNum) // add new color if needed
1900            {
1901                if (colorsNum >= maxColorsNum)
1902                    throw AsmException("Too many register is needed");
1903                colorsNum++;
1904            }
1905           
1906            for (size_t nextNode: equalNodes)
1907                gcMap[nextNode] = color;
1908            // update SDO for node
1909            bool colorExists = false;
1910            for (size_t node: equalNodes)
1911            {
1912                for (size_t nb: interGraph[node])
1913                    if (gcMap[nb] == color)
1914                    {
1915                        colorExists = true;
1916                        break;
1917                    }
1918                if (!colorExists)
1919                    sdoCounts[node]++;
1920            }
1921            // update SDO for neighbors
1922            for (size_t node: equalNodes)
1923                for (size_t nb: interGraph[node])
1924                {
1925                    colorExists = false;
1926                    for (size_t nb2: interGraph[nb])
1927                        if (gcMap[nb2] == color)
1928                        {
1929                            colorExists = true;
1930                            break;
1931                        }
1932                    if (!colorExists)
1933                    {
1934                        if (gcMap[nb] == UINT_MAX)
1935                            nodeSet.erase(nb);  // before update we erase from nodeSet
1936                        sdoCounts[nb]++;
1937                        if (gcMap[nb] == UINT_MAX)
1938                            nodeSet.insert(nb); // after update, insert again
1939                    }
1940                }
1941           
1942            for (size_t nextNode: equalNodes)
1943                gcMap[nextNode] = color;
1944        }
1945    }
1946}
1947
1948void AsmRegAllocator::allocateRegisters(cxuint sectionId)
1949{
1950    // before any operation, clear all
1951    codeBlocks.clear();
1952    for (size_t i = 0; i < MAX_REGTYPES_NUM; i++)
1953    {
1954        vregIndexMaps[i].clear();
1955        interGraphs[i].clear();
1956        linearDepMaps[i].clear();
1957        equalToDepMaps[i].clear();
1958        graphColorMaps[i].clear();
1959        equalSetMaps[i].clear();
1960        equalSetLists[i].clear();
1961    }
1962    ssaReplacesMap.clear();
1963    cxuint maxRegs[MAX_REGTYPES_NUM];
1964    assembler.isaAssembler->getMaxRegistersNum(regTypesNum, maxRegs);
1965   
1966    // set up
1967    const AsmSection& section = assembler.sections[sectionId];
1968    createCodeStructure(section.codeFlow, section.content.size(), section.content.data());
1969    createSSAData(*section.usageHandler);
1970    applySSAReplaces();
1971    createInterferenceGraph(*section.usageHandler);
1972    colorInterferenceGraph();
1973}
Note: See TracBrowser for help on using the repository browser.